«پدرخوانده هوش مصنوعی» از گوگل خارج شد و در مورد خطر پیش رو هشدار داد

جفری هینتون از پیشگامان هوش مصنوعی بود. در سال 2012، دکتر هینتون و دو تن از دانشجویان فارغ التحصیلش در دانشگاه تورنتو فناوری ایجاد کردند که به پایه فکری سیستم های هوش مصنوعی تبدیل شد که بزرگترین شرکت های صنعت فناوری معتقدند کلیدی برای آینده آنهاست.

با این حال، روز دوشنبه، او رسماً به جمع رو به رشدی از منتقدان پیوست که می‌گویند این شرکت‌ها با کمپین تهاجمی خود برای ایجاد محصولاتی مبتنی بر هوش مصنوعی مولد، فناوری‌ای که چت‌ربات‌های محبوبی مانند ChatGPT را نیرو می‌دهد، به سوی خطر رقابت می‌کنند.

دکتر هینتون گفت که او شغل خود را در گوگل رها کرده است، جایی که بیش از یک دهه در آن کار کرده و به یکی از معتبرترین صداها در این زمینه تبدیل شده است، بنابراین او می تواند آزادانه در مورد خطرات هوش مصنوعی صحبت کند. گفت، اکنون از کار زندگی خود پشیمان است.

دکتر هینتون در طی یک مصاحبه طولانی هفته گذشته در اتاق غذاخوری خانه اش در تورنتو، در فاصله کوتاهی از جایی که او شاگردانش به موفقیت دست یافتند.

سفر دکتر هینتون از پیشگامان هوش مصنوعی به پیشگامان، لحظه ای قابل توجه برای صنعت فناوری در مهم ترین نقطه عطف آن در دهه های اخیر است. رهبران صنعت بر این باورند که سیستم‌های هوش مصنوعی جدید می‌توانند به اندازه معرفی مرورگر وب در اوایل دهه 1990 مهم باشند و می‌توانند به پیشرفت‌هایی در حوزه‌های مختلف از تحقیقات دارویی تا آموزش منجر شوند.

اما اخم کردن بسیاری از خودی های صنعت این ترس است که آنها چیزی خطرناک را در طبیعت رها می کنند. هوش مصنوعی مولد می تواند ابزاری برای اطلاعات نادرست باشد. به زودی، ممکن است خطری برای مشاغل باشد. بزرگ‌ترین نگران‌کننده‌های فناوری می‌گویند تا جایی پایین‌تر، این می‌تواند خطری برای بشریت باشد.

دکتر هینتون گفت: «به سختی می توان دید که چگونه می توان از استفاده بازیگران بد برای کارهای بد جلوگیری کرد.

پس از انتشار نسخه جدید ChatGPT توسط استارت آپ OpenAI در سانفرانسیسکو در ماه مارس، بیش از 1000 رهبر فناوری و محقق با امضای نامه ای سرگشاده خواستار توقف شش ماهه توسعه سیستم های جدید شدند زیرا فناوری های هوش مصنوعی خطرات عمیقی را برای جامعه به همراه دارد. و انسانیت.»

چند روز بعد، 19 نفر از رهبران فعلی و سابق انجمن پیشرفت هوش مصنوعی، یک انجمن دانشگاهی 40 ساله، نامه خود را منتشر کردند و در مورد خطرات هوش مصنوعی هشدار دادند که گروه شامل اریک هورویتز، مدیر ارشد علمی مایکروسافت، که فناوری OpenAI را در طیف وسیعی از محصولات از جمله موتور جستجوی Bing خود به کار گرفته است.

دکتر هینتون که اغلب او را “پدرخوانده هوش مصنوعی” می نامند، هیچ یک از این نامه ها را امضا نکرد و گفت که تا زمانی که شغل خود را رها نکرده باشد نمی خواهد علناً از گوگل یا سایر شرکت ها انتقاد کند. او ماه گذشته به شرکت اطلاع داد که در حال استعفا است و روز پنجشنبه با ساندار پیچای، مدیر اجرایی شرکت مادر گوگل، آلفابت، تلفنی صحبت کرد. او از صحبت علنی درباره جزئیات گفتگوی خود با آقای پیچای خودداری کرد.

جف دین، دانشمند ارشد گوگل، در بیانیه‌ای گفت: «ما متعهد به رویکردی مسئولانه در زمینه هوش مصنوعی هستیم و به طور مستمر در حال یادگیری درک خطرات نوظهور و در عین حال جسورانه نوآوری هستیم.»

دکتر هینتون، یک مهاجر ۷۵ ساله بریتانیایی، یک آکادمیک مادام العمر است که زندگی حرفه ای او به دلیل اعتقادات شخصی او در مورد توسعه و استفاده از هوش مصنوعی بود. ایده ای به نام شبکه عصبی شبکه عصبی یک سیستم ریاضی است که با تجزیه و تحلیل داده ها مهارت ها را یاد می گیرد. در آن زمان، تعداد کمی از محققان به این ایده اعتقاد داشتند. اما کار زندگی او شد.

در دهه 1980، دکتر هینتون استاد علوم کامپیوتر در دانشگاه کارنگی ملون بود، اما دانشگاه را به مقصد کانادا ترک کرد، زیرا به گفته او تمایلی به دریافت بودجه پنتاگون ندارد. در آن زمان، بیشتر تحقیقات هوش مصنوعی در ایالات متحده توسط وزارت دفاع تامین می شد. دکتر هینتون عمیقاً با استفاده از هوش مصنوعی در میدان جنگ مخالف است – چیزی که او آن را “سربازان روبات” می نامد.

در سال 2012، دکتر هینتون و دو تن از شاگردانش در تورنتو، ایلیا سوتسکور و الکس کریشفسکی، یک شبکه عصبی ساختند که می‌توانست هزاران عکس را تجزیه و تحلیل کند و به خود بیاموزد که اشیاء معمولی مانند گل‌ها، سگ‌ها و ماشین‌ها را شناسایی کند.

گوگل 44 میلیون دلار برای تصاحب شرکتی که توسط دکتر هینتون و دو شاگردش راه اندازی شده بود هزینه کرد. و سیستم آنها منجر به ایجاد فناوری های قدرتمندتر از جمله چت ربات های جدید مانند ChatGPT و Google Bard شد. آقای Sutskever به عنوان دانشمند ارشد در OpenAI انتخاب شد. در سال 2018، دکتر هینتون و دو همکار قدیمی دیگر جایزه تورینگ را که اغلب «جایزه نوبل محاسبات» نامیده می‌شود، برای کارشان در شبکه‌های عصبی دریافت کردند.

تقریباً در همان زمان، گوگل، OpenAI و سایر شرکت‌ها شروع به ساخت شبکه‌های عصبی کردند که از حجم عظیمی از متن دیجیتال یاد می‌گرفتند. دکتر هینتون فکر می‌کرد که این روشی قدرتمند برای ماشین‌ها برای درک و تولید زبان است، اما نسبت به روشی که انسان‌ها با زبان کار می‌کنند پایین‌تر بود.

سپس، سال گذشته، زمانی که گوگل و OpenAI سیستم هایی را با استفاده از مقادیر بسیار بیشتری از داده ها ساختند، دیدگاه او تغییر کرد. او هنوز معتقد بود که این سیستم‌ها از جهاتی از مغز انسان پایین‌تر هستند، اما فکر می‌کرد که از جهاتی هوش انسان را تحت الشعاع قرار می‌دهند. او گفت: “شاید آنچه در این سیستم ها می گذرد، در واقع بسیار بهتر از آنچه در مغز می گذرد باشد.”

او معتقد است، همانطور که شرکت ها سیستم های هوش مصنوعی خود را بهبود می بخشند، آنها به طور فزاینده ای خطرناک می شوند. او درباره فناوری هوش مصنوعی گفت: «ببینید که پنج سال پیش چگونه بود و اکنون چگونه است. «تفاوت را بگیرید و آن را به جلو تبلیغ کنید. این ترسناک است.»

او گفت تا سال گذشته، گوگل به عنوان یک “مشاور مناسب” برای این فناوری عمل می کرد و مراقب بود چیزی را منتشر نکند که ممکن است باعث آسیب شود. اما اکنون که مایکروسافت موتور جستجوی بینگ خود را با یک ربات چت تقویت کرده است – که تجارت اصلی گوگل را به چالش می کشد – گوگل در حال رقابت برای به کارگیری همان نوع فناوری است. دکتر هینتون گفت که غول های فناوری در رقابتی گرفتار شده اند که توقف آن ممکن است غیرممکن باشد.

نگرانی فوری او این است که اینترنت مملو از عکس‌ها، فیلم‌ها و متن‌های نادرست شود و یک فرد معمولی «دیگر نمی‌تواند بفهمد چه چیزی درست است».

او همچنین نگران است که فناوری های هوش مصنوعی به مرور زمان بازار کار را متحول کند. امروزه، ربات‌های چت مانند ChatGPT مکمل کارکنان انسانی هستند، اما می‌توانند جایگزین مشاوران حقوقی، دستیاران شخصی، مترجمان و سایرینی شوند که کارهای عادی را انجام می‌دهند. او گفت: «این کار سختی را از بین می برد. “ممکن است بیش از آن را از بین ببرد.”

در ادامه، او نگران است که نسخه‌های آینده این فناوری تهدیدی برای بشریت باشد زیرا آنها اغلب رفتارهای غیرمنتظره‌ای را از حجم عظیمی از داده‌هایی که تجزیه و تحلیل می‌کنند یاد می‌گیرند. او گفت که این موضوع به یک مشکل تبدیل می‌شود، زیرا افراد و شرکت‌ها به سیستم‌های هوش مصنوعی اجازه می‌دهند نه تنها کد کامپیوتری خودشان را تولید کنند، بلکه در واقع آن کد را خودشان اجرا کنند. و او از روزی می ترسد که سلاح های خودمختار واقعی – آن روبات های قاتل – به واقعیت تبدیل شوند.

او گفت: «این ایده که این چیزها واقعاً می‌توانند هوشمندتر از مردم باشند – چند نفر آن را باور داشتند. اما بیشتر مردم فکر می‌کردند که خیلی دور از ذهن است. و من فکر می کردم خیلی دور است. فکر می‌کردم 30 تا 50 سال یا حتی بیشتر فاصله داشته باشد. بدیهی است که من دیگر به این فکر نمی کنم.»

بسیاری دیگر از کارشناسان، از جمله بسیاری از دانشجویان و همکاران وی، می گویند این تهدید فرضی است. اما دکتر هینتون معتقد است که رقابت بین گوگل و مایکروسافت و دیگران به یک مسابقه جهانی تبدیل خواهد شد که بدون نوعی مقررات جهانی متوقف نخواهد شد.

او گفت، اما این ممکن است غیرممکن باشد. او گفت برخلاف سلاح های هسته ای، هیچ راهی برای دانستن اینکه آیا شرکت ها یا کشورها به طور مخفیانه روی این فناوری کار می کنند وجود ندارد. بهترین امید این است که دانشمندان برجسته جهان در راه های کنترل فناوری با یکدیگر همکاری کنند. او گفت: «من فکر نمی‌کنم تا زمانی که متوجه نشده باشند که می‌توانند آن را کنترل کنند یا نه، نباید این موضوع را افزایش دهند.

دکتر هینتون گفت که وقتی مردم از او می‌پرسیدند چگونه می‌تواند روی فناوری‌ای که بالقوه خطرناک است کار کند، رابرت اوپنهایمر را که رهبری تلاش‌های ایالات متحده برای ساخت بمب اتمی را رهبری می‌کرد، تعریف می‌کرد: «وقتی چیزی را می‌بینید که از نظر فنی شیرین است، برو و انجامش بده.»

او دیگر این را نمی گوید.