» تکنولوژی » اخبار کامپیوتر و موبایل » کارکنان OpenAI و گوگل از شکایت Anthropic علیه پنتاگون حمایت می کنند
کارکنان OpenAI و گوگل از شکایت Anthropic علیه پنتاگون حمایت می کنند
اخبار کامپیوتر و موبایل

کارکنان OpenAI و گوگل از شکایت Anthropic علیه پنتاگون حمایت می کنند

۱۹ اسفند ۱۴۰۴ 0025

روز دوشنبه، Anthropic شکایتی علیه وزارت دفاع به دلیل تعیین خطر زنجیره تامین تنظیم کرد. ساعاتی بعد، نزدیک به 40 کارمند OpenAI و گوگل، از جمله جف دین، دانشمند ارشد گوگل و رئیس جمینی، در حمایت از شکایت آنتروپیک، جزئیاتی از نگرانی های خود در مورد تصمیم دولت ترامپ و خطرات و پیامدهای این فناوری را ارائه کردند.

این خبر پس از چند هفته دراماتیک برای آنتروپیک منتشر شد که در آن دولت ترامپ این شرکت را یک ریسک زنجیره تامین نامید – نامی که معمولاً مختص شرکت های خارجی است که به نظر دولت به نوعی خطر امنیت ملی بالقوه دارند – پس از اینکه آنتروپیک روی دو خط قرمز در مورد موارد استفاده قابل قبول برای استفاده نظامی از فناوری خود ایستادگی کرد: نظارت انبوه داخلی و سیستم های هوش مصنوعی کاملاً خودمختار بدون تسلیحات انسانی. مذاکرات شکست خورد و به دنبال آن توهین‌های عمومی و سایر شرکت‌های هوش مصنوعی برای امضای قراردادهایی که اجازه «هر گونه استفاده قانونی» از فناوری آنها را می‌داد، وارد شدند.

نامگذاری ریسک زنجیره تامین نه تنها آنتروپیک را از کار بر روی قراردادهای نظامی منع می کند، بلکه سایر شرکت ها را در صورت استفاده از محصولات آنتروپیک در کارهای خود برای پنتاگون در لیست سیاه قرار می دهد و آنها را مجبور می کند که اگر می خواهند قراردادهای سودآور خود را حفظ کنند، کلود را ریشه کن کنند. با این حال، به عنوان اولین مدل مورد تایید برای اطلاعات طبقه بندی شده، ابزار آنتروپیک در حال حاضر عمیقاً در کار پنتاگون ادغام شده است، تا جایی که ظرف چند ساعت پس از اعلام وزیر دفاع پیت هگزث، ارتش ایالات متحده از کلود در کمپین کشتن رهبر ایران آیت الله علی خامنه ای استفاده خواهد کرد.

خلاصه amicus به دنبال تأکید بر این است که نامگذاری ریسک زنجیره تأمین Anthropic “تلافی نامناسبی است که به منافع عمومی آسیب می رساند” و نگرانی های پشت خطوط قرمز Anthropic “واقعی هستند و نیاز به پاسخ دارند.” It also highlights that it is worth revisiting Anthropic's two red lines, stating that “mass national surveillance powered by artificial intelligence poses profound risks to democratic governance – even in responsible hands” and that “fully autonomous lethal weapons systems present risks that must be addressed.”

گروهی که پشت این خلاصه نامه amicus بود، خود را به عنوان «مهندس، محقق، دانشمندان و دیگر متخصصان شاغل در آزمایشگاه‌های هوش مصنوعی مرزی در سراسر ایالات متحده» توصیف کردند.

این گروه نوشت: «ما سیستم‌های هوش مصنوعی در مقیاس بزرگ را می‌سازیم، آموزش می‌دهیم و مطالعه می‌کنیم که به طیف گسترده‌ای از کاربران و استقرارها، از جمله در زمینه‌های مهم امنیت ملی، اجرای قانون، و عملیات نظامی خدمت می‌کنند.» ما این خلاصه را نه به‌عنوان سخنگوی یک شرکت، بلکه در ظرفیت‌های فردی خود به‌عنوان حرفه‌ای ارائه می‌دهیم که اطلاعات دست اولی درباره آنچه این سیستم‌ها می‌توانند و نمی‌توانند انجام دهند، و زمانی که اجرای آنها از چارچوب‌های قانونی و اخلاقی طراحی‌شده برای حاکمیت آنها فراتر می‌رود، در خطر است.»

در زمینه نظارت انبوه داخلی، این گروه گفت که در حالی که داده‌های شهروندان آمریکایی در همه جا به شکل دوربین‌های نظارتی، داده‌های موقعیت جغرافیایی، پست‌های رسانه‌های اجتماعی، تراکنش‌های مالی و موارد دیگر وجود دارد، «آنچه هنوز وجود ندارد، لایه‌ای از هوش مصنوعی است که این چشم‌انداز داده‌های گسترده و تکه‌تکه را به یک دستگاه نظارتی واحد و بی‌درنگ تبدیل می‌کند.» در حال حاضر، آنها نوشتند، این جریان های داده ایزوله هستند، اما اگر هوش مصنوعی برای اتصال آنها استفاده شود، می تواند “داده های تشخیص چهره را با تاریخچه مکان، سوابق تراکنش، نمودارهای اجتماعی و الگوهای رفتاری صدها میلیون نفر به طور همزمان ترکیب کند.”

وقتی صحبت از سلاح های خود مختار مرگبار به طور خاص به میان می آید، این گروه گفت که آنها می توانند در شرایط جدید یا نامشخصی که با محیطی که در آن آموزش دیده اند، غیرقابل اعتماد باشند، به این معنی که “نمی توان به آنها برای شناسایی اهداف با دقت کامل اعتماد کرد و قادر به ایجاد معاوضه های متنی ظریف بین دستیابی به یک هدف و در نظر گرفتن اثرات جانبی انسانی نیستند.” بعلاوه، این گروه نوشت، پتانسیل توهمات سیستم های تسلیحاتی خود مختار مرگبار به این معنی است که برای انسان ها مهم است که در فرآیند تصمیم گیری “قبل از پرتاب مهمات مرگبار علیه یک هدف انسانی” مشارکت داشته باشند – به ویژه به این دلیل که زنجیره استدلال سیستم اغلب برای اپراتورها در دسترس نیست و حتی برای توسعه دهندگان سیستم نیز نامشخص است.

گروه پشتیبان آمیکوس نوشت: «ما در سیاست‌ها و فلسفه‌هایمان متفاوت هستیم، اما در این باور متحد هستیم که سیستم‌های هوش مصنوعی مرزی امروزی زمانی که برای فعال کردن نظارت انبوه ملی یا بهره‌برداری از سیستم‌های تسلیحات کشنده خودمختار بدون نظارت انسان مورد استفاده قرار می‌گیرند، خطراتی را ایجاد می‌کنند و این خطرات مستلزم نوعی نرده محافظ است، چه از طریق استفاده فنی یا محدودیت‌ها.»

منبع: theverge

به این نوشته امتیاز بدهید!

دیدگاهتان را بنویسید

  • ×