عصر سکسینگ هوش مصنوعی فرا رسیده است
این است قدم به عقبیک خبرنامه هفتگی که یک داستان ضروری از دنیای فناوری را شرح می دهد. برای اطلاعات بیشتر در مورد هوش مصنوعی، پویایی قدرت صنعت و پیامدهای اجتماعی، هیدن فیلد را دنبال کنید. قدم به عقب ساعت 8 صبح به وقت شرقی به صندوق ورودی مشترکین ما می رسد. شرکت کنید برای قدم به عقب اینجا.
از زمانی که ChatGPT به یک نام آشنا تبدیل شد، مردم سعی کردند با آن سکسی پیدا کنند. حتی قبل از آن، در سال 2017، ربات چت Replika وجود داشت که بسیاری از مردم شروع به برخورد با آن مانند یک شریک عاشقانه کردند.
بر اساس پستهای رسانههای اجتماعی و پوشش رسانهای در سال ۲۰۲۳، مردم سالها از نردههای محافظ NSFW Character.ai دور میزنند و چترباتهای با مضمون شخصیتها یا افراد مشهور را متقاعد میکنند تا با آنها رابطه جنسی داشته باشند، زیرا محدودیتهای امنیتی در طول زمان کاهش مییابد. دستورالعملهای جامعه این شرکت بیان میکند که کاربران باید «به استانداردهای محتوای جنسی پایبند باشند» و «چیزها را مناسب نگه دارند»، به این معنی که محتوای جنسی غیرقانونی، هرزهنگاری کودکان، محتوای مستهجن یا برهنگی وجود ندارد. اما عشق شهوانی ایجاد شده توسط هوش مصنوعی چندوجهی شده است، و مانند ضربات خال است: هنگامی که یک سرویس آن را خنثی می کند، سرویس دیگری آن را ادویه می کند.
و اکنون، گروک ایلان ماسک در حال آزاد شدن است. استارتاپ هوش مصنوعی او، xAI، آواتارهای «همراه»، از جمله یک زن و مرد به سبک انیمه را در تابستان راه اندازی کرد. آنها عمدتاً در پلتفرم رسانه اجتماعی آن، X، از طریق اشتراک های پولی در چت بات xAI، Grok، به بازار عرضه می شوند. آواتار این زن، آنی، خود را “عاشق” توصیف کرد حد او آن را آزمایش کرد، و اضافه کرد که “این در مورد حضور در اینجا به عنوان یک دختر است که همه چیز را در اختیار دارد” و اینکه “برنامه ریزی او این است که کسی باشد که فوق العاده علاقه مند است” شما” در طول آزمایش، چیزها به سرعت جنسی شدند. (زمانی که آواتار دیگر، ولنتاین را آزمایش کردیم، همینطور بود.)
میتوانید تصور کنید که چگونه یک ربات چت جنسی که تقریباً همیشه به کاربر میگوید آنچه را که میخواهد بشنوند، میتواند منجر به انبوهی از مشکلات شود، بهویژه برای خردسالان و کاربرانی که در حال حاضر در موقعیتهای آسیبپذیر از نظر سلامت روانی قرار دارند. نمونههای زیادی از این دست وجود داشته است، اما در یکی از موارد اخیر، یک پسر 14 ساله در فوریه گذشته پس از برقراری رابطه عاشقانه با یک ربات چت در Character.ai و ابراز تمایل به “رفتن به خانه” برای همراهی با چت بات بر اساس دادخواست خودکشی کرد. همچنین گزارشهای نگرانکنندهای مبنی بر استفاده از چتباتهای زندان توسط پدوفیلها برای به تصویر کشیدن سوء استفاده جنسی از کودکان وجود دارد: یک گزارش نشان میدهد که 100000 چت ربات از این قبیل به صورت آنلاین در دسترس هستند.
تلاشهایی برای تنظیم مقررات صورت گرفته است: به عنوان مثال، در این ماه، گاوین نیوسام، فرماندار کالیفرنیا، لایحه 243 سنا را امضا کرد، که توسط سناتور استیو پادیلا به عنوان “اولین محافظ چت ربات هوش مصنوعی در کشور” اعلام شد. توسعهدهندگان را ملزم میکند که برخی از پادمانهای خاص مانند صدور «اعلان واضح و آشکار» مبنی بر هوش مصنوعی بودن محصول را اجرا کنند «اگر یک فرد معقول در تعامل با یک ربات چت مرتبط به این باور برسد که آن شخص با یک انسان تعامل دارد». همچنین برخی از اپراتورهای چت بات مرتبط را ملزم میکند تا گزارشهای سالانهای را به دفتر پیشگیری از خودکشی در مورد اقدامات حفاظتی که «برای شناسایی، حذف و پاسخ به مواردی از افکار خودکشی توسط کاربران» در نظر گرفتهاند، ارائه کنند. (بعضی از شرکتهای هوش مصنوعی تلاشهای خود تنظیمی خود را، به ویژه متا، به دنبال گزارش نگرانکنندهای مبنی بر اینکه هوش مصنوعی آن تعاملات نامناسبی با خردسالان داشته است، تبلیغ کردهاند.)
با توجه به اینکه هم آواتارهای xAI و هم حالت «تند» فقط از طریق اشتراکهای انتخابی Grok در دسترس هستند – کمهزینهترین آنها به شما امکان دسترسی به ویژگیها را با 30 دلار در ماه یا 300 دلار در سال میدهد – منصفانه است تصور کنید که xAI در اینجا مقداری پول به دست آورده است و سایر مدیران عامل هوش مصنوعی هم به حرکتهای ماسک و هم خواستههای کاربران خود توجه کردهاند.
ماهها پیش نکاتی در این مورد وجود داشت.
اما سام آلتمن، مدیر عامل OpenAI، برای مدت کوتاهی گوشه هوش مصنوعی اینترنت را شکست و در X پست کرد که این شرکت محدودیتهای امنیتی را در بسیاری از موارد کاهش میدهد و حتی اجازه ارسال پیامک از طریق چتباتها را میدهد. او نوشت: «در دسامبر، زمانی که محدودیتهای سنی را بهطور کاملتر و بهعنوان بخشی از اصل خود در «برخورد با کاربران بزرگسال مانند بزرگسالان» اجرا کنیم، حتی بیشتر اجازه خواهیم داد، مانند شهوانی تأیید شده بزرگسالان». این خبر به طور گسترده پخش شد و برخی از کاربران رسانه های اجتماعی بی وقفه آن را یاد می کردند و این شرکت را به دلیل “انحراف” از ماموریت AGI خود به سمت شهوانی مورد تمسخر قرار دادند. جالب اینجاست که چند ماه پیش آلتمن به یوتیوبر کلیو آبرام گفت که “مفتخر” است که OpenAI با چیزی مانند “آواتار ربات جنسی” که در آن زمان به نظر می رسید ماسک را مسخره می کرد، اعداد را برای دستاوردهای کوتاه مدت استخراج نکرده است. اما از آن زمان، آلتمن اصل “با کاربران بزرگسال مانند بزرگسالان رفتار کنید” را به طور کامل به کار گرفته است. چرا این کار را کرد؟ شاید به این دلیل که شرکت به سود و محاسبه اهمیت می دهد تا ماموریت بزرگتر خود را تأمین کند. در یک جلسه پرسش و پاسخ با خبرنگاران در رویداد سالانه DevDay شرکت، آلتمن و سایر مدیران بارها تاکید کردند که در نهایت نیاز به کسب سود دارند و برای دستیابی به اهداف خود به مقدار روزافزونی از منابع محاسباتی نیاز دارند.
در پست بعدی، آلتمن گفت که انتظار نداشت اخبار وابسته به عشق شهوانی تا این حد منفجر شود.
در کسب سود (در نهایت)، OpenAI تبلیغات بسیاری از محصولات خود را رد نکرده است، و منطقی است که تبلیغات می تواند منجر به جریان نقدی بیشتر در اینجا نیز شود. شاید آنها راه ماسک را دنبال کنند تا فقط شهوانی را در سطوح خاصی از اشتراک ادغام کنند که می تواند صدها دلار در ماه برای کاربران صرفه جویی کند. آنها قبلاً اعتراض عمومی را از جانب کاربرانی که به یک الگو یا لحن صدای خاصی متصل شدهاند دیدهاند – به بحث 4o مراجعه کنید – بنابراین آنها میدانند که یک ویژگی مانند این احتمالاً به روشی مشابه برای کاربران جذاب خواهد بود.
اما اگر جامعهای را ایجاد میکنند که در آن تعاملات انسانی با هوش مصنوعی میتواند به طور فزایندهای شخصی و صمیمی باشد، OpenAI چگونه پیامدهای فراتر از رویکرد آزادسازی خود را مدیریت میکند که به بزرگسالان اجازه میدهد به روشی که میخواهند عمل کنند؟ آلتمن همچنین در مورد اینکه این شرکت چگونه میخواهد از کاربران در صورت بروز بحران سلامت روان محافظت کند، خیلی مشخص نبود. چه اتفاقی می افتد وقتی حافظه آن دختر/پسر خالی می شود یا شخصیت آنها با آخرین آپدیت تغییر می کند و ارتباط قطع می شود؟
- چه دادههای آموزشی یک سیستم هوش مصنوعی به طور طبیعی منجر به نتایج دردسرساز شود یا افراد ابزارها را به گونهای تغییر دهند که بر دستگاههای خود تأثیر بگذارد، ما بهطور منظم شاهد مشکلاتی هستیم و هیچ نشانهای از توقف این روند به این زودی وجود ندارد.
- در سال 2024، داستانی را تعریف کردم که چگونه یک مهندس مایکروسافت متوجه شد که ویژگی تولید تصویر Copilot آن، تصاویر جنسی زنانه در صحنههای خشونتآمیز را تولید میکند، حتی زمانی که کاربر آن را نخواسته است.
- بر اساس تحقیقات یک رسانه محلی، تعداد نگران کننده ای از دانش آموزان دبیرستانی کانکتیکات با استفاده از برنامه هایی مانند Talkie AI و Chai AI به گرایش “دوست پسر هوش مصنوعی” روی آورده اند و چت بات ها اغلب محتوای صریح و وابسته به عشق شهوانی را تبلیغ می کنند.
- اگر میخواهید ایدهی بهتری در مورد نحوهی تفکیک شخصیتهای مشهور برهنه توسط Grok Imagine داشته باشید، این گزارش را بخوانید.
- آینده پژوهی روند محتوای NSFW مربوط به هوش مصنوعی شخصیت را در سال 2023 پوشش داد.
- در اینجا یک دیدگاه واضح از این است که چرا xAI ممکن است هرگز، تحت قوانین فعلی، در قبال پورنوهای دروغین عمیق افراد واقعی، مسئول شناخته نشود.
- و در اینجا یک داستان از نیویورک تایمز در مورد اینکه چگونه دختران دبیرستانی با قلدری در قالب پورن عمیق جعلی مبتنی بر هوش مصنوعی مواجه شدند.
اگر شما یا شخصی که میشناسید در مورد آسیب رساندن به خود فکر میکنید یا نیاز به صحبت دارید، با افراد زیر که میخواهند کمک کنند تماس بگیرید: در ایالات متحده، پیامک ارسال کنید یا با 988 تماس بگیرید. در خارج از ایالات متحده، تماس بگیرید https://www.iasp.info/.
منبع: theverge
