کابوس امنیت هوش مصنوعی اینجاست و به طرز مشکوکی شبیه یک خرچنگ است
یک هکر یک ابزار کدنویسی محبوب هوش مصنوعی را فریب داد تا OpenClaw را نصب کند، عامل ویروسی و منبع باز OpenClaw که “واقعاً کارها را انجام می دهد” – کاملاً در همه جا. به عنوان یک ترفند خنده دار است، اما نشانه چیزهایی است که در آینده رخ می دهد زیرا افراد بیشتری به نرم افزارهای مستقل اجازه می دهند از رایانه های خود به نمایندگی از آنها استفاده کنند.
هکر از یک آسیبپذیری در Cline، یک عامل کدنویسی AI منبع باز و محبوب در میان توسعهدهندگان استفاده کرد، که محقق امنیتی عدنان خان چند روز قبل به عنوان اثبات مفهوم آن را کشف کرده بود. به بیان ساده، در جریان کاری کلاین از کلود آنتروپیک استفاده شد، که میتوان به او دستورات ظریف داده و مجبور به انجام کارهایی شد که نباید انجام دهد، تکنیکی که به عنوان تزریق سریع شناخته میشود.
هکر از دسترسی آنها برای عبور از دستورالعمل ها برای نصب خودکار نرم افزار بر روی رایانه کاربران استفاده کرد. آنها می توانستند هر چیزی را نصب کنند، اما OpenClaw را انتخاب کردند. خوشبختانه عوامل در زمان نصب فعال نشدند وگرنه داستان خیلی فرق می کرد.
این نشانه این است که وقتی به عوامل هوش مصنوعی کنترل رایانههای ما داده میشود، همه چیز میتواند به سرعت آشکار شود. آنها ممکن است مانند بازی هوشمندانه با کلمات به نظر برسند – یک گروه چت ربات ها را متقاعد کرد تا با شعر مرتکب جنایت شوند – اما در دنیای نرم افزاری که به طور فزاینده ای مستقل است، تزریق های به موقع نشان دهنده خطرات امنیتی بزرگی هستند که دفاع در برابر آنها بسیار دشوار است. با درک این موضوع، برخی از شرکت ها در عوض کارهایی را که ابزارهای هوش مصنوعی می توانند در صورت ربوده شدن انجام دهند، مسدود می کنند. به عنوان مثال، OpenAI اخیراً یک حالت مسدود کردن جدید برای ChatGPT ارائه کرده است که از نشت اطلاعات شما جلوگیری می کند.
البته، اگر محققانی را که به طور خصوصی نقص ها را به شما گزارش می دهند نادیده بگیرید، محافظت از خود در برابر تزریق به موقع دشوارتر است. خان گفت که هفتهها قبل از انتشار یافتههایش، به کلاین درباره این آسیبپذیری هشدار داده است. این سوء استفاده فقط پس از گزارش عمومی آنها برطرف شد.
منبع: theverge
