» تکنولوژی » اخبار کامپیوتر و موبایل » به گفته Observatory، تعدیل عمیق متا به اندازه کافی خوب نیست
به گفته Observatory، تعدیل عمیق متا به اندازه کافی خوب نیست
اخبار کامپیوتر و موبایل

به گفته Observatory، تعدیل عمیق متا به اندازه کافی خوب نیست

۱۹ اسفند ۱۴۰۴ 0026

روش‌های متا برای شناسایی دیپ‌فیک‌ها به اندازه کافی قوی یا جامع نیستند تا بتوانند سرعت انتشار اطلاعات نادرست در طول درگیری‌های مسلحانه مانند جنگ با ایران را کنترل کنند. طبق گفته هیئت نظارت متا، یک نهاد نیمه مستقل که شیوه های تعدیل محتوای شرکت را هدایت می کند، و اکنون از متا می خواهد تا نحوه ارائه و برچسب گذاری محتوای تولید شده توسط هوش مصنوعی در فیس بوک، اینستاگرام و Threads را بررسی کند.

درخواست برای اقدام ناشی از تحقیق در مورد یک ویدیوی جعلی هوش مصنوعی از آسیب ادعایی به ساختمان‌ها در اسرائیل است که سال گذشته در پلتفرم‌های رسانه‌های اجتماعی متا به اشتراک گذاشته شد، اما شورا می‌گوید با توجه به «تشدیدهای نظامی گسترده» در سراسر خاورمیانه در این هفته، توصیه‌های این شورا به‌ویژه در حال حاضر مرتبط هستند. این شورا در اطلاعیه خود بیان می‌کند که دسترسی به اطلاعات دقیق و قابل اعتماد برای ایمنی افراد در شرایطی که ابزارهای هوش مصنوعی برای انتشار اطلاعات نادرست استفاده می‌شوند، حیاتی است.

هیئت نظارت متا گفت: «یافته‌های هیئت نشان می‌دهد که سیستم فعلی متا برای برچسب‌گذاری مناسب محتوای هوش مصنوعی بیش از حد به افشای خودکار استفاده از هوش مصنوعی و بررسی بیشتر وابسته است و با واقعیت‌های محیط آنلاین امروزی مطابقت ندارد.» این پرونده همچنین چالش‌های تکثیر بین پلتفرمی چنین محتوایی را برجسته می‌کند، به‌طوری که به نظر می‌رسد محتوا قبل از نمایش در فیس‌بوک، اینستاگرام و X در TikTok ایجاد شده است.»

گام‌های توصیه‌شده توسط شورا شامل فشار بر متا برای بهبود قوانین اطلاعات نادرست موجود برای مقابله با دیپ‌فیک‌های فریبنده و ایجاد یک استاندارد جدید و مجزا از جامعه برای محتوای تولید شده توسط هوش مصنوعی است. همچنین از متا خواسته شده است که ابزارهای تشخیص هوش مصنوعی بهتری ایجاد کند، در مورد جریمه‌های نقض خط‌مشی هوش مصنوعی شفاف باشد و تلاش‌های برچسب‌گذاری محتوای هوش مصنوعی را افزایش دهد. مورد دوم شامل اطمینان از اینکه برچسب‌های «هوش مصنوعی پرخطر» بیشتر به تصاویر و ویدیوهای مصنوعی اضافه می‌شوند، و بهبود پذیرش C2PA (که در غیر این صورت به عنوان اعتبار محتوا شناخته می‌شود) به طوری که اطلاعات مربوط به محتوای تولید شده توسط هوش مصنوعی «به وضوح قابل مشاهده و در دسترس کاربران» باشد.

منبع: theverge

به این نوشته امتیاز بدهید!

دیدگاهتان را بنویسید

  • ×