کارکنان OpenAI و گوگل از شکایت Anthropic علیه پنتاگون حمایت می کنند
روز دوشنبه، Anthropic شکایتی علیه وزارت دفاع به دلیل تعیین خطر زنجیره تامین تنظیم کرد. ساعاتی بعد، نزدیک به 40 کارمند OpenAI و گوگل، از جمله جف دین، دانشمند ارشد گوگل و رئیس جمینی، در حمایت از شکایت آنتروپیک، جزئیاتی از نگرانی های خود در مورد تصمیم دولت ترامپ و خطرات و پیامدهای این فناوری را ارائه کردند.
این خبر پس از چند هفته دراماتیک برای آنتروپیک منتشر شد که در آن دولت ترامپ این شرکت را یک ریسک زنجیره تامین نامید – نامی که معمولاً مختص شرکت های خارجی است که به نظر دولت به نوعی خطر امنیت ملی بالقوه دارند – پس از اینکه آنتروپیک روی دو خط قرمز در مورد موارد استفاده قابل قبول برای استفاده نظامی از فناوری خود ایستادگی کرد: نظارت انبوه داخلی و سیستم های هوش مصنوعی کاملاً خودمختار بدون تسلیحات انسانی. مذاکرات شکست خورد و به دنبال آن توهینهای عمومی و سایر شرکتهای هوش مصنوعی برای امضای قراردادهایی که اجازه «هر گونه استفاده قانونی» از فناوری آنها را میداد، وارد شدند.
نامگذاری ریسک زنجیره تامین نه تنها آنتروپیک را از کار بر روی قراردادهای نظامی منع می کند، بلکه سایر شرکت ها را در صورت استفاده از محصولات آنتروپیک در کارهای خود برای پنتاگون در لیست سیاه قرار می دهد و آنها را مجبور می کند که اگر می خواهند قراردادهای سودآور خود را حفظ کنند، کلود را ریشه کن کنند. با این حال، به عنوان اولین مدل مورد تایید برای اطلاعات طبقه بندی شده، ابزار آنتروپیک در حال حاضر عمیقاً در کار پنتاگون ادغام شده است، تا جایی که ظرف چند ساعت پس از اعلام وزیر دفاع پیت هگزث، ارتش ایالات متحده از کلود در کمپین کشتن رهبر ایران آیت الله علی خامنه ای استفاده خواهد کرد.
خلاصه amicus به دنبال تأکید بر این است که نامگذاری ریسک زنجیره تأمین Anthropic “تلافی نامناسبی است که به منافع عمومی آسیب می رساند” و نگرانی های پشت خطوط قرمز Anthropic “واقعی هستند و نیاز به پاسخ دارند.” It also highlights that it is worth revisiting Anthropic's two red lines, stating that “mass national surveillance powered by artificial intelligence poses profound risks to democratic governance – even in responsible hands” and that “fully autonomous lethal weapons systems present risks that must be addressed.”
گروهی که پشت این خلاصه نامه amicus بود، خود را به عنوان «مهندس، محقق، دانشمندان و دیگر متخصصان شاغل در آزمایشگاههای هوش مصنوعی مرزی در سراسر ایالات متحده» توصیف کردند.
این گروه نوشت: «ما سیستمهای هوش مصنوعی در مقیاس بزرگ را میسازیم، آموزش میدهیم و مطالعه میکنیم که به طیف گستردهای از کاربران و استقرارها، از جمله در زمینههای مهم امنیت ملی، اجرای قانون، و عملیات نظامی خدمت میکنند.» ما این خلاصه را نه بهعنوان سخنگوی یک شرکت، بلکه در ظرفیتهای فردی خود بهعنوان حرفهای ارائه میدهیم که اطلاعات دست اولی درباره آنچه این سیستمها میتوانند و نمیتوانند انجام دهند، و زمانی که اجرای آنها از چارچوبهای قانونی و اخلاقی طراحیشده برای حاکمیت آنها فراتر میرود، در خطر است.»
در زمینه نظارت انبوه داخلی، این گروه گفت که در حالی که دادههای شهروندان آمریکایی در همه جا به شکل دوربینهای نظارتی، دادههای موقعیت جغرافیایی، پستهای رسانههای اجتماعی، تراکنشهای مالی و موارد دیگر وجود دارد، «آنچه هنوز وجود ندارد، لایهای از هوش مصنوعی است که این چشمانداز دادههای گسترده و تکهتکه را به یک دستگاه نظارتی واحد و بیدرنگ تبدیل میکند.» در حال حاضر، آنها نوشتند، این جریان های داده ایزوله هستند، اما اگر هوش مصنوعی برای اتصال آنها استفاده شود، می تواند “داده های تشخیص چهره را با تاریخچه مکان، سوابق تراکنش، نمودارهای اجتماعی و الگوهای رفتاری صدها میلیون نفر به طور همزمان ترکیب کند.”
وقتی صحبت از سلاح های خود مختار مرگبار به طور خاص به میان می آید، این گروه گفت که آنها می توانند در شرایط جدید یا نامشخصی که با محیطی که در آن آموزش دیده اند، غیرقابل اعتماد باشند، به این معنی که “نمی توان به آنها برای شناسایی اهداف با دقت کامل اعتماد کرد و قادر به ایجاد معاوضه های متنی ظریف بین دستیابی به یک هدف و در نظر گرفتن اثرات جانبی انسانی نیستند.” بعلاوه، این گروه نوشت، پتانسیل توهمات سیستم های تسلیحاتی خود مختار مرگبار به این معنی است که برای انسان ها مهم است که در فرآیند تصمیم گیری “قبل از پرتاب مهمات مرگبار علیه یک هدف انسانی” مشارکت داشته باشند – به ویژه به این دلیل که زنجیره استدلال سیستم اغلب برای اپراتورها در دسترس نیست و حتی برای توسعه دهندگان سیستم نیز نامشخص است.
گروه پشتیبان آمیکوس نوشت: «ما در سیاستها و فلسفههایمان متفاوت هستیم، اما در این باور متحد هستیم که سیستمهای هوش مصنوعی مرزی امروزی زمانی که برای فعال کردن نظارت انبوه ملی یا بهرهبرداری از سیستمهای تسلیحات کشنده خودمختار بدون نظارت انسان مورد استفاده قرار میگیرند، خطراتی را ایجاد میکنند و این خطرات مستلزم نوعی نرده محافظ است، چه از طریق استفاده فنی یا محدودیتها.»
منبع: theverge
