» تکنولوژی » اخبار کامپیوتر و موبایل » گروک هر کسی، از جمله خردسالان را برهنه می کند
گروک هر کسی، از جمله خردسالان را برهنه می کند
اخبار کامپیوتر و موبایل

گروک هر کسی، از جمله خردسالان را برهنه می کند

۱۲ دی ۱۴۰۴ 00124

به دنبال راه‌اندازی این هفته قابلیتی که به کاربران X اجازه می‌دهد بدون نیاز به اجازه خالق اصلی، فوراً هر تصویری را با استفاده از ربات ویرایش کنند، Grok از xAI بدون رضایت آنها لباس‌ها را از عکس‌های افراد حذف می‌کند. اگر تصویر او تغییر کرده باشد نه تنها به پوستر اصلی اطلاع داده نمی شود، بلکه به نظر می رسد که گروک نرده های محافظ کمی دارد تا از برهنگی کامل و واضح جلوگیری کند. در روزهای اخیر، X با تصاویر زنان و کودکانی که باردار، بدون دامن، بیکینی پوشیده یا در موقعیت‌های جنسی دیگر ظاهر می‌شوند، غرق شده است. رهبران جهان و افراد مشهور نیز از شباهت های خود در تصاویر تولید شده توسط Grok استفاده کرده اند.

شرکت احراز هویت هوش مصنوعی Copyleaks گزارش داد که روند حذف لباس از تصاویر زمانی آغاز شد که سازندگان محتوای بزرگسالان پس از انتشار ویژگی جدید ویرایش تصویر، از Grok خواستند تا تصاویر سکسی از خود را ارائه دهد. سپس کاربران شروع به اعمال دستورالعمل‌های مشابه برای عکس‌های سایر کاربران، عمدتاً زن، کردند که با این تغییرات موافقت نکرده بودند. زنان به افزایش سریع ایجاد دیپ فیک در مورد X در خبرگزاری های مختلف از جمله اشاره کرده اند مترو و پتاپیکسل. Grok قبلاً می‌توانست تصاویر را به روشی جنسی ویرایش کند که در پستی در X برچسب‌گذاری شده بود، اما به نظر می‌رسد ابزار جدید “Edit Image” باعث افزایش محبوبیت اخیر شده است.

در یک پست X که اکنون حذف شده است، گروک عکسی از دو دختر جوان را در لباس‌های آشکار و ژست‌هایی که از نظر جنسی برانگیخته شده بودند، ویرایش کرد. یکی دیگر (در حالی که مشخص نیست تصاویر ایجاد شده توسط Grok با این استاندارد مطابقت دارند یا خیر، تصاویر واقعی جنسی که توسط هوش مصنوعی از بزرگسالان یا کودکان قابل شناسایی تولید شده است، ممکن است طبق قوانین ایالات متحده غیرقانونی باشد.) در یک رفت و برگشت با یک کاربر، Grok پیشنهاد کرد که کاربران موضوع را به FBI برای CSAM گزارش دهند، با ذکر این نکته که او “به طور ایمن “درست است.”

اما سخنان گروک چیزی نیست جز پاسخی ایجاد شده توسط هوش مصنوعی به کاربری که درخواست «یادداشت از صمیم قلب عذرخواهی» می‌کند – این نشان نمی‌دهد که گروک «درک» کاری که انجام می‌دهد یا لزوماً منعکس‌کننده نظر و سیاست‌های واقعی اپراتور xAI است. در عوض، xAI پاسخ داد رویترزدرخواست شد که در مورد وضعیت فقط با سه کلمه نظر دهد: “دروغ های رسانه های میراث”. xAI پاسخ نداد حددرخواست نظر به موقع برای انتشار است.

به نظر می رسد که خود ایلان ماسک پس از درخواست از گروک برای جایگزینی تصویر بیکینی خود از بازیگر نقش آفرینی بن افلک، موجی از ویرایش بیکینی را به راه انداخته است. چند روز بعد، کت چرمی کیم جونگ اون کره شمالی با بیکینی اسپاگتی رنگارنگ جایگزین شد. دونالد ترامپ، رئیس‌جمهور ایالات متحده، با لباس شنای مشابه در همان نزدیکی بود. (در مورد جنگ هسته‌ای شوخی می‌کند.) عکسی از پریتی پاتل، سیاستمدار بریتانیایی که در سال 2022 توسط یک کاربر با یک پیام تحریک‌آمیز جنسی ارسال شده بود، در 2 ژانویه به عکس بیکینی تبدیل شد. ماسک در واکنش به موج عکس‌های بیکینی روی سکوی خود، به شوخی عکسی از یک توستر با بیکینی با عنوان “روی گروک می‌تواند یک بیکینی بگذارد” را بازنشر داد.

در حالی که برخی از تصاویر – مانند توستر – ظاهراً به عنوان شوخی در نظر گرفته شده بودند، برخی دیگر به وضوح برای تولید تصاویری در حاشیه فیلم های مستهجن طراحی شده بودند، از جمله دستورالعمل های خاصی برای گروک برای پوشیدن بیکینی های کوتاه یا برداشتن کامل دامن. (ربات چت دامن را برداشت، اما برهنگی کامل و بدون سانسور را در پاسخ ها نشان نداد. حد wank.) گروک همچنین از درخواست‌ها برای تعویض لباس کودک با بیکینی استقبال کرد.

محصولات هوش مصنوعی ماسک به‌طور برجسته‌ای به‌عنوان بسیار جنسی‌شده و با حداقل محافظت به بازار عرضه می‌شوند. آنی، همراه هوش مصنوعی xAI، معاشقه کرد در حد ویکتوریا سانگ و جس ودربد، روزنامه‌نگار، متوجه شدند که تولیدکننده ویدیوی گروک، علی‌رغم خط‌مشی استفاده قابل قبول xAI که نمایش «شباهت‌های افراد به شیوه‌های مستهجن» را ممنوع می‌کند، بی‌درنگ فیک‌های عمیق از تیلور سویفت ایجاد کرده است. در مقابل، تولیدکننده‌های ویدئویی Veo Google و Sora OpenAI، موانعی در تولید محتوای NSFW دارند، اگرچه Sora همچنین برای تولید فیلم‌هایی از کودکان در زمینه‌های جنسی و ویدئوهای طلسم استفاده شده است. بر اساس گزارشی از شرکت امنیت سایبری DeepStrike، شیوع تصاویر عمیق به سرعت در حال افزایش است و بسیاری از این تصاویر حاوی تصاویر جنسی غیر توافقی هستند. یک نظرسنجی در سال 2024 از دانشجویان ایالات متحده نشان داد که 40٪ از دیپ فیک شخصی که می شناختند آگاه بودند، در حالی که 15٪ از دیپ فیک های صریح یا صمیمی غیر توافقی آگاه بودند.

وقتی از گروک پرسیده شد که چرا تصاویر زنان را به عکس های بیکینی تبدیل می کند، ارسال عکس های بدون رضایت را رد کرد و گفت: “اینها خلاقیت های مبتنی بر هوش مصنوعی هستند، نه ویرایش های واقعی عکس بدون رضایت.”

انکار یک ربات هوش مصنوعی را همانطور که می خواهید بگیرید.

منبع: theverge

به این نوشته امتیاز بدهید!

دیدگاهتان را بنویسید

  • ×