به گفته Observatory، تعدیل عمیق متا به اندازه کافی خوب نیست
روشهای متا برای شناسایی دیپفیکها به اندازه کافی قوی یا جامع نیستند تا بتوانند سرعت انتشار اطلاعات نادرست در طول درگیریهای مسلحانه مانند جنگ با ایران را کنترل کنند. طبق گفته هیئت نظارت متا، یک نهاد نیمه مستقل که شیوه های تعدیل محتوای شرکت را هدایت می کند، و اکنون از متا می خواهد تا نحوه ارائه و برچسب گذاری محتوای تولید شده توسط هوش مصنوعی در فیس بوک، اینستاگرام و Threads را بررسی کند.
درخواست برای اقدام ناشی از تحقیق در مورد یک ویدیوی جعلی هوش مصنوعی از آسیب ادعایی به ساختمانها در اسرائیل است که سال گذشته در پلتفرمهای رسانههای اجتماعی متا به اشتراک گذاشته شد، اما شورا میگوید با توجه به «تشدیدهای نظامی گسترده» در سراسر خاورمیانه در این هفته، توصیههای این شورا بهویژه در حال حاضر مرتبط هستند. این شورا در اطلاعیه خود بیان میکند که دسترسی به اطلاعات دقیق و قابل اعتماد برای ایمنی افراد در شرایطی که ابزارهای هوش مصنوعی برای انتشار اطلاعات نادرست استفاده میشوند، حیاتی است.
هیئت نظارت متا گفت: «یافتههای هیئت نشان میدهد که سیستم فعلی متا برای برچسبگذاری مناسب محتوای هوش مصنوعی بیش از حد به افشای خودکار استفاده از هوش مصنوعی و بررسی بیشتر وابسته است و با واقعیتهای محیط آنلاین امروزی مطابقت ندارد.» این پرونده همچنین چالشهای تکثیر بین پلتفرمی چنین محتوایی را برجسته میکند، بهطوری که به نظر میرسد محتوا قبل از نمایش در فیسبوک، اینستاگرام و X در TikTok ایجاد شده است.»
گامهای توصیهشده توسط شورا شامل فشار بر متا برای بهبود قوانین اطلاعات نادرست موجود برای مقابله با دیپفیکهای فریبنده و ایجاد یک استاندارد جدید و مجزا از جامعه برای محتوای تولید شده توسط هوش مصنوعی است. همچنین از متا خواسته شده است که ابزارهای تشخیص هوش مصنوعی بهتری ایجاد کند، در مورد جریمههای نقض خطمشی هوش مصنوعی شفاف باشد و تلاشهای برچسبگذاری محتوای هوش مصنوعی را افزایش دهد. مورد دوم شامل اطمینان از اینکه برچسبهای «هوش مصنوعی پرخطر» بیشتر به تصاویر و ویدیوهای مصنوعی اضافه میشوند، و بهبود پذیرش C2PA (که در غیر این صورت به عنوان اعتبار محتوا شناخته میشود) به طوری که اطلاعات مربوط به محتوای تولید شده توسط هوش مصنوعی «به وضوح قابل مشاهده و در دسترس کاربران» باشد.
منبع: theverge
