» تکنولوژی » اخبار کامپیوتر و موبایل » ایلان ماسک تأیید می کند که xAI از مدل های OpenAI برای آموزش Grok استفاده کرده است
ایلان ماسک تأیید می کند که xAI از مدل های OpenAI برای آموزش Grok استفاده کرده است
اخبار کامپیوتر و موبایل

ایلان ماسک تأیید می کند که xAI از مدل های OpenAI برای آموزش Grok استفاده کرده است

۱۰ اردیبهشت ۱۴۰۵ 004

روز پنجشنبه در دادگاه فدرال در کالیفرنیا، ایلان ماسک شهادت داد که استارتاپ هوش مصنوعی او، xAI، از مدل های OpenAI برای بهبود مدل های خود استفاده کرده است.

موضوع مورد بحث تقطیر مدل است، یک روش رایج در صنعت که به موجب آن یک مدل هوش مصنوعی بزرگتر به عنوان نوعی «معلم» برای انتقال دانش به مدل هوش مصنوعی کوچکتر، «دانشجو» عمل می کند. در حالی که اغلب در شرکت‌هایی که از یکی از مدل‌های هوش مصنوعی خود برای آموزش دیگری استفاده می‌کنند، به طور قانونی استفاده می‌شود، اما گاهی اوقات توسط آزمایشگاه‌های هوش مصنوعی کوچک‌تر استفاده می‌شود تا سعی کنند مدل‌های خود را به تقلید از عملکرد یک مدل رقیب بزرگ‌تر وادار کنند.

ماسک در پاسخ به این سوال که آیا می‌داند مدل تقطیر چیست، گفت که این شامل استفاده از یک مدل هوش مصنوعی برای آموزش دیگری است. وقتی از ماسک پرسیده شد که آیا xAI فناوری OpenAI را تقطیر کرده است یا خیر، به نظر می‌رسد ماسک از این سؤال اجتناب کرده و می‌گوید که «به طور کلی همه شرکت‌های هوش مصنوعی» چنین کاری را انجام می‌دهند. و وقتی از او پرسیدند که آیا بله، او پاسخ داد: «تا حدی».

زمانی که ماسک فشار داده شد، گفت: «استفاده از هوش مصنوعی دیگر برای اعتبارسنجی هوش مصنوعی خود یک تمرین استاندارد است.»

تقطیر الگو در حال افزایش است و در سال‌های اخیر بحث‌های بیشتری را در میان آزمایشگاه‌های هوش مصنوعی برانگیخته است، زیرا دستورالعمل‌ها در مورد اینکه چه چیزی قانونی است – و چه چیزی شرایط خاص یا سیاست‌های یک شرکت را نقض می‌کند – اغلب در یک منطقه خاکستری قرار می‌گیرد. شرکت‌هایی مانند OpenAI و Anthropic شرکت‌های چینی را به تقطیر مدل‌های خود متهم کرده‌اند و OpenAI به طور علنی نگرانی‌های خود را در مورد DeepSeek و Anthropic به‌طور خاص DeepSeek، Moonshot و MiniMax را اعلام کرده است. گوگل همچنین اقداماتی را برای جلوگیری از آنچه “حملات تقطیر” یا “روشی از سرقت مالکیت معنوی که شرایط خدمات گوگل را نقض می کند” می نامد، انجام داده است.

در پست وبلاگ Anthropic در مورد این موضوع، این شرکت نوشت: “تقطیر یک روش آموزشی پرکاربرد و قانونی است. به عنوان مثال، آزمایشگاه های هوش مصنوعی مرزی به طور معمول مدل های خود را تقطیر می کنند تا نسخه های کوچکتر و ارزان تر را برای مشتریان خود ایجاد کنند. اما تقطیر می تواند برای اهداف غیرقانونی نیز استفاده شود: رقبا می توانند از آن برای به دست آوردن توانایی های قدرتمند دیگر در زمان کوتاهی استفاده کنند. هزینه ای که برای توسعه مستقل آنها نیاز است.”

منبع: theverge

به این نوشته امتیاز بدهید!

دیدگاهتان را بنویسید

  • ×