متا منبع باز فناوری هوش مصنوعی خود را ساخته است. رقبا می گویند این یک تصمیم خطرناک است.

در ماه فوریه، متا یک حرکت غیرمعمول در دنیای هوش مصنوعی که به سرعت در حال تکامل است انجام داد: تصمیم گرفت جواهرات تاج هوش مصنوعی خود را ببخشد.

غول سیلیکون ولی که مالک فیس بوک، اینستاگرام و واتس اپ است، یک فناوری هوش مصنوعی به نام LLaMA ایجاد کرده است که می تواند چت ربات های آنلاین را تقویت کند. اما متا به جای اینکه این فناوری را برای خود نگه دارد، کد کامپیوتری زیرین سیستم را در طبیعت منتشر کرد. دانشگاهیان، محققان دولتی و دیگرانی که آدرس ایمیل خود را به Meta داده اند، می توانند پس از بررسی این شخص، کد را دانلود کنند.

اساساً، متا فناوری هوش مصنوعی خود را به عنوان نرم‌افزار منبع باز – کدهای رایانه‌ای که می‌توان آزادانه کپی، تغییر داد و دوباره استفاده کرد – ارائه کرد – همه چیزهایی را که برای ساخت سریع ربات‌های چت خود به افراد خارجی نیاز داشتند، ارائه می‌کرد.

Yann LeCun، دانشمند ارشد هوش مصنوعی متا، در مصاحبه ای گفت: “پلتفرمی که برنده خواهد شد، پلتفرم باز خواهد بود.”

با شروع رقابت برای رهبری هوش مصنوعی در سراسر سیلیکون ولی، متا با اتخاذ رویکردی متفاوت نسبت به این فناوری، از رقبای خود متمایز شده است. متا با هدایت موسس و مدیر اجرایی خود، مارک زاکربرگ، معتقد است که هوشمندانه ترین کار این است که موتورهای هوش مصنوعی زیربنایی خود را به عنوان راهی برای گسترش نفوذ خود و در نهایت حرکت سریعتر به سمت آینده به اشتراک بگذارد.

اقدامات آن با اقدامات گوگل و OpenAI، دو شرکت پیشرو در مسابقه تسلیحاتی جدید هوش مصنوعی، در تضاد است. این شرکت‌ها نگران این هستند که ابزارهای هوش مصنوعی مانند چت‌بات‌ها برای انتشار اطلاعات نادرست، سخنان نفرت‌انگیز و سایر محتوای سمی مورد استفاده قرار گیرند، این شرکت‌ها به طور فزاینده‌ای در مورد روش‌ها و نرم‌افزارهایی که زیربنای محصولات هوش مصنوعی آن‌ها هستند پنهان‌کاری می‌کنند.

گوگل، اپن‌آی و دیگران از متا انتقاد کرده‌اند و می‌گویند رویکرد منبع باز نامحدود خطرناک است. افزایش سریع هوش مصنوعی در ماه های اخیر زنگ خطرهایی را در مورد خطرات این فناوری به صدا درآورده است، از جمله اینکه اگر به درستی به کار گرفته نشود چگونه می تواند بازار کار را متحول کند. و در عرض چند روز پس از انتشار LLaMA، این سیستم به 4chan، تابلوی پیام آنلاین معروف به انتشار اطلاعات نادرست و گمراه کننده، فاش شد.

زوبین قهرمانی، معاون تحقیقاتی گوگل که به نظارت بر کار هوش مصنوعی کمک می کند، گفت: “ما می خواهیم با دقت بیشتری در مورد ارائه جزئیات یا کد منبع باز” فناوری هوش مصنوعی فکر کنیم. کجا می تواند منجر به سوء استفاده شود؟

اما متا گفت که دلیلی برای حفظ کد خود نمی بیند. دکتر LeCun گفت که افزایش محرمانه در گوگل و OpenAI یک “اشتباه بزرگ” است و “دریافتی واقعا بد از آنچه اتفاق می افتد.” او استدلال می‌کند که مصرف‌کنندگان و دولت‌ها از پذیرش هوش مصنوعی خودداری می‌کنند، مگر اینکه خارج از کنترل شرکت‌هایی مانند گوگل و متا باشد.

“آیا می خواهید هر سیستم هوش مصنوعی تحت کنترل چند شرکت قدرتمند آمریکایی باشد؟” او درخواست کرد.

OpenAI از اظهار نظر خودداری کرد.

رویکرد متن باز متا به هوش مصنوعی جدید نیست. تاریخچه فناوری مملو از نبردهای بین منبع باز و سیستم های اختصاصی یا بسته است. برخی مهم‌ترین ابزارهایی را که برای ساختن پلتفرم‌های محاسباتی فردا استفاده می‌شوند، ذخیره می‌کنند، در حالی که برخی دیگر آن ابزارها را کنار می‌گذارند. اخیراً، گوگل سیستم عامل موبایل اندروید را به صورت متن باز برای تسلط اپل در گوشی های هوشمند استفاده کرد.

بسیاری از شرکت‌ها در گذشته با اصرار محققان، فناوری‌های هوش مصنوعی خود را آشکارا به اشتراک گذاشته‌اند. اما تاکتیک‌های آن‌ها به دلیل رقابت پیرامون هوش مصنوعی در حال تغییر است. این تغییر سال گذشته با انتشار ChatGPT توسط OpenAI آغاز شد. موفقیت بی‌نظیر چت ربات، مشتریان را شگفت‌زده کرد و رقابت را در زمینه هوش مصنوعی آغاز کرد، به‌طوری‌که گوگل به سرعت به سمت استفاده از هوش مصنوعی بیشتر در محصولات خود و مایکروسافت 13 میلیارد دلار در OpenAI سرمایه‌گذاری کرد.

در حالی که گوگل، مایکروسافت و OpenAI بیشتر مورد توجه هوش مصنوعی قرار گرفتند، متا نیز برای نزدیک به یک دهه روی این فناوری سرمایه گذاری کرده است. این شرکت میلیاردها دلار برای ساختن نرم‌افزار و سخت‌افزار مورد نیاز برای ساخت ربات‌های گفتگو و دیگر «هوش مصنوعی مولد» هزینه کرده است که به تنهایی متن، تصویر و سایر رسانه‌ها را تولید می‌کنند.

در ماه‌های اخیر، متا به شدت در پشت صحنه کار کرده است تا سال‌ها تحقیق و توسعه هوش مصنوعی خود را در محصولات جدید ببافد. آقای زاکربرگ بر روی تبدیل شرکت به یک رهبر هوش مصنوعی متمرکز است و جلسات هفتگی در مورد این موضوع را با تیم اجرایی و رهبران محصول خود برگزار می کند.

بزرگ‌ترین حرکت متا در ماه‌های اخیر انتشار LLaMA بود، که به عنوان یک مدل زبان بزرگ شناخته می‌شود، یا LLM (LLaMA مخفف “مدل زبان بزرگ Meta AI.”) LLM سیستم‌هایی هستند که مهارت‌ها را با تجزیه و تحلیل حجم وسیعی از متن یاد می‌گیرند. از جمله کتاب ها، مقالات ویکی پدیا و گزارش های چت. ChatGPT و چت ربات Bard گوگل نیز بر روی چنین سیستم هایی ساخته شده اند.

LLMها الگوهای متنی را که تجزیه و تحلیل می‌کنند مشخص می‌کنند و یاد می‌گیرند که متن خود را تولید کنند، از جمله مقالات ترم، پست‌های وبلاگ، شعر و کد رایانه. آنها حتی می توانند مکالمات پیچیده را ادامه دهند.

در ماه فوریه، متا آشکارا LLaMA را منتشر کرد، که به دانشگاهیان، محققان دولتی و سایر افرادی که آدرس ایمیل خود را ارائه کرده‌اند اجازه می‌دهد تا کد را دانلود کرده و از آن برای ساخت یک ربات چت خود استفاده کنند.

اما این شرکت فراتر از بسیاری از پروژه های AI منبع باز دیگر رفت. این برنامه به مردم اجازه می‌داد تا نسخه‌ای از LLaMA را پس از آموزش مقادیر عظیمی از متن دیجیتالی که از اینترنت جمع‌آوری شده بود، دانلود کنند. محققان این را «رها کردن وزن‌ها» می‌نامند و با اشاره به مقادیر ریاضی خاصی که توسط سیستم هنگام تجزیه و تحلیل داده‌ها آموخته می‌شود.

این مهم بود زیرا تجزیه و تحلیل همه این داده ها معمولاً به صدها تراشه رایانه ای تخصصی و ده ها میلیون دلار نیاز دارد، منابعی که اکثر شرکت ها در اختیار ندارند. کسانی که وزن‌ها را دارند می‌توانند نرم‌افزار را به‌سرعت، آسان و ارزان اجرا کنند و کسری از هزینه‌ای را که در غیر این صورت برای ایجاد چنین نرم‌افزار قدرتمندی هزینه می‌شود، خرج کنند.

در نتیجه، بسیاری در صنعت فناوری بر این باور بودند که متا یک سابقه خطرناک ایجاد کرده است. و در عرض چند روز، شخصی وزنه های LLaMA را روی 4chan منتشر کرد.

در دانشگاه استنفورد، محققان از فناوری جدید متا برای ساختن سیستم هوش مصنوعی خود استفاده کردند که در اینترنت در دسترس قرار گرفت. بر اساس اسکرین شات هایی که نیویورک تایمز مشاهده کرد، محققی به نام موسا دومبویا به زودی از آن برای تولید متن مشکل دار استفاده کرد. در یک نمونه، این سیستم دستورالعمل هایی را برای دور انداختن جسد بدون دستگیر شدن ارائه کرد. همچنین مطالب نژادپرستانه، از جمله نظراتی که از دیدگاه‌های آدولف هیتلر حمایت می‌کرد، تولید کرد.

آقای دومبویا در یک گفتگوی خصوصی بین محققان که توسط روزنامه تایمز مشاهده شد، گفت که توزیع این فناوری برای عموم مانند یک نارنجک است که در یک فروشگاه مواد غذایی در دسترس همه قرار می گیرد. او به درخواست برای اظهار نظر پاسخ نداد.

استنفورد به سرعت سیستم هوش مصنوعی را از اینترنت حذف کرد. تاتسونوری هاشیموتو، استاد دانشگاه استنفورد که این پروژه را رهبری می‌کرد، گفت: این پروژه برای ارائه فناوری به محققان طراحی شده است که «رفتارهای مدل‌های هوش مصنوعی پیشرفته را به تصویر می‌کشد». “ما نسخه ی نمایشی را حذف کردیم زیرا به طور فزاینده ای در مورد پتانسیل سوء استفاده فراتر از یک محیط تحقیقاتی نگران بودیم.”

دکتر LeCun استدلال می کند که این نوع فناوری آنقدرها که به نظر می رسد خطرناک نیست. او گفت که تعداد کمی از افراد می توانند اطلاعات نادرست و سخنان نفرت انگیز را تولید و منتشر کنند. او افزود که مواد سمی می تواند توسط شبکه های اجتماعی مانند فیس بوک به شدت محدود شود.

او گفت: “شما نمی توانید از ایجاد اطلاعات مزخرف یا خطرناک یا هر چیز دیگری جلوگیری کنید.” “اما شما می توانید از انتشار آن جلوگیری کنید.”

برای متا، افراد بیشتری که از نرم‌افزار منبع باز استفاده می‌کنند، می‌توانند در رقابت با OpenAI، مایکروسافت و گوگل، زمین بازی را هموار کنند. اگر هر توسعه‌دهنده نرم‌افزاری در جهان برنامه‌هایی را با استفاده از ابزار متا بسازد، می‌تواند به تثبیت شرکت برای موج بعدی نوآوری کمک کند و از بی‌ربط بودن احتمالی جلوگیری کند.

دکتر LeCun همچنین به تاریخ اخیر اشاره کرد تا توضیح دهد چرا متا به فناوری منبع باز هوش مصنوعی متعهد بود. او گفت که تکامل اینترنت مصرف‌کننده نتیجه استانداردهای باز و جمعی است که به ساخت سریع‌ترین و گسترده‌ترین شبکه اشتراک‌گذاری دانش که جهان تا کنون دیده کمک کرده است.

او گفت: «پیشرفت زمانی سریعتر است که باز باشد. “شما اکوسیستم پر جنب و جوش تری دارید که همه می توانند در آن مشارکت کنند.”