در ماه فوریه، متا یک حرکت غیرمعمول در دنیای هوش مصنوعی که به سرعت در حال تکامل است انجام داد: تصمیم گرفت جواهرات تاج هوش مصنوعی خود را ببخشد.
غول سیلیکون ولی که مالک فیس بوک، اینستاگرام و واتس اپ است، یک فناوری هوش مصنوعی به نام LLaMA ایجاد کرده است که می تواند چت ربات های آنلاین را تقویت کند. اما متا به جای اینکه این فناوری را برای خود نگه دارد، کد کامپیوتری زیرین سیستم را در طبیعت منتشر کرد. دانشگاهیان، محققان دولتی و دیگرانی که آدرس ایمیل خود را به Meta داده اند، می توانند پس از بررسی این شخص، کد را دانلود کنند.
اساساً، متا فناوری هوش مصنوعی خود را به عنوان نرمافزار منبع باز – کدهای رایانهای که میتوان آزادانه کپی، تغییر داد و دوباره استفاده کرد – ارائه کرد – همه چیزهایی را که برای ساخت سریع رباتهای چت خود به افراد خارجی نیاز داشتند، ارائه میکرد.
Yann LeCun، دانشمند ارشد هوش مصنوعی متا، در مصاحبه ای گفت: “پلتفرمی که برنده خواهد شد، پلتفرم باز خواهد بود.”
با شروع رقابت برای رهبری هوش مصنوعی در سراسر سیلیکون ولی، متا با اتخاذ رویکردی متفاوت نسبت به این فناوری، از رقبای خود متمایز شده است. متا با هدایت موسس و مدیر اجرایی خود، مارک زاکربرگ، معتقد است که هوشمندانه ترین کار این است که موتورهای هوش مصنوعی زیربنایی خود را به عنوان راهی برای گسترش نفوذ خود و در نهایت حرکت سریعتر به سمت آینده به اشتراک بگذارد.
اقدامات آن با اقدامات گوگل و OpenAI، دو شرکت پیشرو در مسابقه تسلیحاتی جدید هوش مصنوعی، در تضاد است. این شرکتها نگران این هستند که ابزارهای هوش مصنوعی مانند چتباتها برای انتشار اطلاعات نادرست، سخنان نفرتانگیز و سایر محتوای سمی مورد استفاده قرار گیرند، این شرکتها به طور فزایندهای در مورد روشها و نرمافزارهایی که زیربنای محصولات هوش مصنوعی آنها هستند پنهانکاری میکنند.
گوگل، اپنآی و دیگران از متا انتقاد کردهاند و میگویند رویکرد منبع باز نامحدود خطرناک است. افزایش سریع هوش مصنوعی در ماه های اخیر زنگ خطرهایی را در مورد خطرات این فناوری به صدا درآورده است، از جمله اینکه اگر به درستی به کار گرفته نشود چگونه می تواند بازار کار را متحول کند. و در عرض چند روز پس از انتشار LLaMA، این سیستم به 4chan، تابلوی پیام آنلاین معروف به انتشار اطلاعات نادرست و گمراه کننده، فاش شد.
زوبین قهرمانی، معاون تحقیقاتی گوگل که به نظارت بر کار هوش مصنوعی کمک می کند، گفت: “ما می خواهیم با دقت بیشتری در مورد ارائه جزئیات یا کد منبع باز” فناوری هوش مصنوعی فکر کنیم. کجا می تواند منجر به سوء استفاده شود؟
اما متا گفت که دلیلی برای حفظ کد خود نمی بیند. دکتر LeCun گفت که افزایش محرمانه در گوگل و OpenAI یک “اشتباه بزرگ” است و “دریافتی واقعا بد از آنچه اتفاق می افتد.” او استدلال میکند که مصرفکنندگان و دولتها از پذیرش هوش مصنوعی خودداری میکنند، مگر اینکه خارج از کنترل شرکتهایی مانند گوگل و متا باشد.
“آیا می خواهید هر سیستم هوش مصنوعی تحت کنترل چند شرکت قدرتمند آمریکایی باشد؟” او درخواست کرد.
OpenAI از اظهار نظر خودداری کرد.
رویکرد متن باز متا به هوش مصنوعی جدید نیست. تاریخچه فناوری مملو از نبردهای بین منبع باز و سیستم های اختصاصی یا بسته است. برخی مهمترین ابزارهایی را که برای ساختن پلتفرمهای محاسباتی فردا استفاده میشوند، ذخیره میکنند، در حالی که برخی دیگر آن ابزارها را کنار میگذارند. اخیراً، گوگل سیستم عامل موبایل اندروید را به صورت متن باز برای تسلط اپل در گوشی های هوشمند استفاده کرد.
بسیاری از شرکتها در گذشته با اصرار محققان، فناوریهای هوش مصنوعی خود را آشکارا به اشتراک گذاشتهاند. اما تاکتیکهای آنها به دلیل رقابت پیرامون هوش مصنوعی در حال تغییر است. این تغییر سال گذشته با انتشار ChatGPT توسط OpenAI آغاز شد. موفقیت بینظیر چت ربات، مشتریان را شگفتزده کرد و رقابت را در زمینه هوش مصنوعی آغاز کرد، بهطوریکه گوگل به سرعت به سمت استفاده از هوش مصنوعی بیشتر در محصولات خود و مایکروسافت 13 میلیارد دلار در OpenAI سرمایهگذاری کرد.
در حالی که گوگل، مایکروسافت و OpenAI بیشتر مورد توجه هوش مصنوعی قرار گرفتند، متا نیز برای نزدیک به یک دهه روی این فناوری سرمایه گذاری کرده است. این شرکت میلیاردها دلار برای ساختن نرمافزار و سختافزار مورد نیاز برای ساخت رباتهای گفتگو و دیگر «هوش مصنوعی مولد» هزینه کرده است که به تنهایی متن، تصویر و سایر رسانهها را تولید میکنند.
در ماههای اخیر، متا به شدت در پشت صحنه کار کرده است تا سالها تحقیق و توسعه هوش مصنوعی خود را در محصولات جدید ببافد. آقای زاکربرگ بر روی تبدیل شرکت به یک رهبر هوش مصنوعی متمرکز است و جلسات هفتگی در مورد این موضوع را با تیم اجرایی و رهبران محصول خود برگزار می کند.
بزرگترین حرکت متا در ماههای اخیر انتشار LLaMA بود، که به عنوان یک مدل زبان بزرگ شناخته میشود، یا LLM (LLaMA مخفف “مدل زبان بزرگ Meta AI.”) LLM سیستمهایی هستند که مهارتها را با تجزیه و تحلیل حجم وسیعی از متن یاد میگیرند. از جمله کتاب ها، مقالات ویکی پدیا و گزارش های چت. ChatGPT و چت ربات Bard گوگل نیز بر روی چنین سیستم هایی ساخته شده اند.
LLMها الگوهای متنی را که تجزیه و تحلیل میکنند مشخص میکنند و یاد میگیرند که متن خود را تولید کنند، از جمله مقالات ترم، پستهای وبلاگ، شعر و کد رایانه. آنها حتی می توانند مکالمات پیچیده را ادامه دهند.
در ماه فوریه، متا آشکارا LLaMA را منتشر کرد، که به دانشگاهیان، محققان دولتی و سایر افرادی که آدرس ایمیل خود را ارائه کردهاند اجازه میدهد تا کد را دانلود کرده و از آن برای ساخت یک ربات چت خود استفاده کنند.
اما این شرکت فراتر از بسیاری از پروژه های AI منبع باز دیگر رفت. این برنامه به مردم اجازه میداد تا نسخهای از LLaMA را پس از آموزش مقادیر عظیمی از متن دیجیتالی که از اینترنت جمعآوری شده بود، دانلود کنند. محققان این را «رها کردن وزنها» مینامند و با اشاره به مقادیر ریاضی خاصی که توسط سیستم هنگام تجزیه و تحلیل دادهها آموخته میشود.
این مهم بود زیرا تجزیه و تحلیل همه این داده ها معمولاً به صدها تراشه رایانه ای تخصصی و ده ها میلیون دلار نیاز دارد، منابعی که اکثر شرکت ها در اختیار ندارند. کسانی که وزنها را دارند میتوانند نرمافزار را بهسرعت، آسان و ارزان اجرا کنند و کسری از هزینهای را که در غیر این صورت برای ایجاد چنین نرمافزار قدرتمندی هزینه میشود، خرج کنند.
در نتیجه، بسیاری در صنعت فناوری بر این باور بودند که متا یک سابقه خطرناک ایجاد کرده است. و در عرض چند روز، شخصی وزنه های LLaMA را روی 4chan منتشر کرد.
در دانشگاه استنفورد، محققان از فناوری جدید متا برای ساختن سیستم هوش مصنوعی خود استفاده کردند که در اینترنت در دسترس قرار گرفت. بر اساس اسکرین شات هایی که نیویورک تایمز مشاهده کرد، محققی به نام موسا دومبویا به زودی از آن برای تولید متن مشکل دار استفاده کرد. در یک نمونه، این سیستم دستورالعمل هایی را برای دور انداختن جسد بدون دستگیر شدن ارائه کرد. همچنین مطالب نژادپرستانه، از جمله نظراتی که از دیدگاههای آدولف هیتلر حمایت میکرد، تولید کرد.
آقای دومبویا در یک گفتگوی خصوصی بین محققان که توسط روزنامه تایمز مشاهده شد، گفت که توزیع این فناوری برای عموم مانند یک نارنجک است که در یک فروشگاه مواد غذایی در دسترس همه قرار می گیرد. او به درخواست برای اظهار نظر پاسخ نداد.
استنفورد به سرعت سیستم هوش مصنوعی را از اینترنت حذف کرد. تاتسونوری هاشیموتو، استاد دانشگاه استنفورد که این پروژه را رهبری میکرد، گفت: این پروژه برای ارائه فناوری به محققان طراحی شده است که «رفتارهای مدلهای هوش مصنوعی پیشرفته را به تصویر میکشد». “ما نسخه ی نمایشی را حذف کردیم زیرا به طور فزاینده ای در مورد پتانسیل سوء استفاده فراتر از یک محیط تحقیقاتی نگران بودیم.”
دکتر LeCun استدلال می کند که این نوع فناوری آنقدرها که به نظر می رسد خطرناک نیست. او گفت که تعداد کمی از افراد می توانند اطلاعات نادرست و سخنان نفرت انگیز را تولید و منتشر کنند. او افزود که مواد سمی می تواند توسط شبکه های اجتماعی مانند فیس بوک به شدت محدود شود.
او گفت: “شما نمی توانید از ایجاد اطلاعات مزخرف یا خطرناک یا هر چیز دیگری جلوگیری کنید.” “اما شما می توانید از انتشار آن جلوگیری کنید.”
برای متا، افراد بیشتری که از نرمافزار منبع باز استفاده میکنند، میتوانند در رقابت با OpenAI، مایکروسافت و گوگل، زمین بازی را هموار کنند. اگر هر توسعهدهنده نرمافزاری در جهان برنامههایی را با استفاده از ابزار متا بسازد، میتواند به تثبیت شرکت برای موج بعدی نوآوری کمک کند و از بیربط بودن احتمالی جلوگیری کند.
دکتر LeCun همچنین به تاریخ اخیر اشاره کرد تا توضیح دهد چرا متا به فناوری منبع باز هوش مصنوعی متعهد بود. او گفت که تکامل اینترنت مصرفکننده نتیجه استانداردهای باز و جمعی است که به ساخت سریعترین و گستردهترین شبکه اشتراکگذاری دانش که جهان تا کنون دیده کمک کرده است.
او گفت: «پیشرفت زمانی سریعتر است که باز باشد. “شما اکوسیستم پر جنب و جوش تری دارید که همه می توانند در آن مشارکت کنند.”