رهبران صنعت هشدار می دهند که هوش مصنوعی خطر انقراض را به همراه دارد

گروهی از رهبران صنعت روز سه‌شنبه هشدار دادند که فناوری هوش مصنوعی که در حال ساخت آن‌ها هستند ممکن است روزی یک تهدید وجودی برای بشریت باشد و باید به عنوان خطری اجتماعی همتراز با همه‌گیری‌ها و جنگ‌های هسته‌ای در نظر گرفته شود.

در بیانیه تک جمله ای آمده است: «کاهش خطر انقراض ناشی از هوش مصنوعی باید در کنار سایر خطرات اجتماعی در مقیاس اجتماعی، مانند بیماری های همه گیر و جنگ هسته ای، یک اولویت جهانی باشد. منتشر شده توسط مرکز ایمنی هوش مصنوعی، یک سازمان غیرانتفاعی. این نامه سرگشاده توسط بیش از 350 مدیر اجرایی، محقق و مهندس شاغل در هوش مصنوعی امضا شده است

امضاکنندگان شامل مدیران ارشد سه شرکت پیشرو هوش مصنوعی بودند: سام آلتمن، مدیر اجرایی OpenAI. دمیس حسابیس، مدیر اجرایی Google DeepMind؛ و داریو آمودی، مدیر اجرایی آنتروپیک.

جفری هینتون و یوشوا بنجیو، دو تن از سه محققی که برنده جایزه تورینگ برای کار پیشگامانه خود در شبکه‌های عصبی شده‌اند و اغلب به عنوان «پدرخوانده‌های» جنبش مدرن هوش مصنوعی در نظر گرفته می‌شوند، این بیانیه را امضا کردند، همانطور که دیگر محققان برجسته در این زمینه امضا کردند. (سومین برنده جایزه تورینگ، Yann LeCun، که تلاش های تحقیقاتی متا در هوش مصنوعی را رهبری می کند، تا روز سه شنبه امضا نکرده بود.)

این بیانیه در زمان نگرانی فزاینده در مورد مضرات بالقوه هوش مصنوعی بیان می شود. پیشرفت‌های اخیر در مدل‌های به اصطلاح زبان بزرگ – نوع سیستم هوش مصنوعی مورد استفاده توسط ChatGPT و دیگر چت‌بات‌ها – این نگرانی را ایجاد کرده است که هوش مصنوعی به زودی می‌تواند در مقیاس وسیع برای انتشار اطلاعات نادرست و تبلیغات استفاده شود، یا اینکه می‌تواند میلیون‌ها شغل یقه سفید را حذف کند. .

در نهایت، برخی معتقدند، هوش مصنوعی می‌تواند به اندازه‌ای قدرتمند شود که اگر کاری برای کاهش سرعت آن انجام نشود، ظرف چند سال می‌تواند اختلالاتی در مقیاس اجتماعی ایجاد کند، اگرچه محققان گاهی اوقات از توضیح چگونگی وقوع آن کوتاهی می‌کنند.

این ترس‌ها توسط بسیاری از رهبران صنعت به اشتراک گذاشته می‌شود و آنها را در موقعیت غیرعادی قرار می‌دهد که می‌گویند فناوری‌ای که در حال ساخت آن‌ها هستند – و در بسیاری موارد، به شدت در حال رقابت برای ساخت سریع‌تر از رقبای خود هستند – خطرات بزرگی را به همراه دارد و باید به شدت تحت نظارت قرار گیرد.

در این ماه، آقای آلتمن، آقای حسابیس و آقای آمودی با پرزیدنت بایدن و معاون رئیس جمهور کامالا هریس ملاقات کردند تا در مورد مقررات هوش مصنوعی صحبت کنند. در شهادت سنا پس از جلسه، آقای آلتمن هشدار داد که خطرات سیستم‌های هوش مصنوعی پیشرفته به اندازه‌ای جدی است که مداخله دولت را تضمین کند و خواستار تنظیم مقررات هوش مصنوعی برای آسیب‌های احتمالی آن شد.

دن هندریکس، مدیر اجرایی مرکز ایمنی هوش مصنوعی، در مصاحبه‌ای گفت که این نامه سرگشاده برای برخی از رهبران صنعت که نگرانی‌های خود را – اما فقط به صورت خصوصی – در مورد خطرات فناوری خود ابراز کرده‌اند، یک “بررسی” است. در حال توسعه.

آقای هندریکس می‌گوید: «حتی در جامعه هوش مصنوعی یک تصور غلط بسیار رایج وجود دارد که تنها تعداد انگشت شماری از محکومان وجود دارند. اما، در واقع، بسیاری از مردم به طور خصوصی در مورد این چیزها ابراز نگرانی می کنند.

برخی از بدبینان استدلال می کنند که فناوری هوش مصنوعی هنوز برای ایجاد یک تهدید وجودی نابالغ است. وقتی نوبت به سیستم‌های هوش مصنوعی امروزی می‌رسد، بیشتر نگران مشکلات کوتاه‌مدت مانند پاسخ‌های مغرضانه و نادرست هستند تا خطرات طولانی‌مدت.

اما برخی دیگر استدلال کرده اند که هوش مصنوعی آنقدر سریع در حال بهبود است که قبلاً در برخی زمینه ها از عملکرد سطح انسانی پیشی گرفته است و به زودی در برخی دیگر از آن پیشی خواهد گرفت. آنها می گویند که این فناوری نشانه هایی از قابلیت ها و درک پیشرفته را نشان داده است و این نگرانی را ایجاد کرده است که “هوش عمومی مصنوعی” یا AGI، نوعی از هوش مصنوعی که می تواند با عملکرد سطح انسان در طیف گسترده ای از وظایف مطابقت داشته باشد یا از آن فراتر رود. دور باشد

در یک پست وبلاگی در هفته گذشته، آقای آلتمن و دو مدیر دیگر OpenAI راه های مختلفی را پیشنهاد کردند که سیستم های قدرتمند هوش مصنوعی را می توان مسئولانه مدیریت کرد. آنها خواستار همکاری میان سازندگان پیشرو هوش مصنوعی، تحقیقات فنی بیشتر در مورد مدل های زبان بزرگ و تشکیل یک سازمان بین المللی ایمنی هوش مصنوعی، مشابه آژانس بین المللی انرژی اتمی، که به دنبال کنترل استفاده از سلاح های هسته ای است، شدند.

آقای آلتمن همچنین حمایت خود را از قوانینی اعلام کرده است که سازندگان مدل‌های بزرگ و پیشرفته هوش مصنوعی را ملزم به ثبت نام برای مجوز دولتی می‌کند.

در ماه مارس، بیش از 1000 فن‌آور و محقق نامه سرگشاده دیگری را امضا کردند که در آن خواستار توقف شش ماهه توسعه بزرگترین مدل‌های هوش مصنوعی شدند و به نگرانی‌ها در مورد “مسابقه خارج از کنترل برای توسعه و استقرار ذهن‌های دیجیتالی قدرتمندتر” اشاره کردند. ”

آن نامه، که توسط یک موسسه غیرانتفاعی دیگر متمرکز بر هوش مصنوعی سازماندهی شده بود، توسط ایلان ماسک و دیگر رهبران مشهور فناوری امضا شد، اما امضای زیادی از آزمایشگاه های پیشرو هوش مصنوعی نداشت.

مختصر بیانیه جدید مرکز ایمنی هوش مصنوعی – در مجموع فقط 22 کلمه – به منظور متحد کردن کارشناسان هوش مصنوعی بود که ممکن است در مورد ماهیت خطرات خاص یا گام‌هایی برای جلوگیری از وقوع آن خطرات اختلاف نظر داشته باشند، اما نگرانی‌های عمومی در مورد قدرت‌های قدرتمند را به اشتراک گذاشتند. آقای هندریکس گفت که سیستم های هوش مصنوعی.

آقای هندریکس گفت: «ما نمی‌خواستیم برای یک منوی بسیار بزرگ از 30 مداخله احتمالی فشار بیاوریم. “وقتی این اتفاق می افتد، پیام را کمرنگ می کند.”

این بیانیه در ابتدا با چند کارشناس برجسته هوش مصنوعی، از جمله آقای هینتون، که در این ماه از کار خود در گوگل استعفا داد، به اشتراک گذاشته شد تا بتواند آزادانه‌تر در مورد آسیب‌های احتمالی هوش مصنوعی صحبت کند. از آنجا به چندین آزمایشگاه بزرگ هوش مصنوعی راه پیدا کرد، جایی که برخی از کارمندان آن را امضا کردند.

فوریت هشدارهای رهبران هوش مصنوعی افزایش یافته است زیرا میلیون‌ها نفر برای سرگرمی، همراهی و افزایش بهره‌وری به چت‌ربات‌های هوش مصنوعی روی آورده‌اند، و با پیشرفت سریع فناوری زیربنایی.

آقای آلتمن به کمیته فرعی سنا گفت: «فکر می‌کنم اگر این فناوری اشتباه پیش برود، ممکن است کاملاً اشتباه شود. ما می خواهیم با دولت برای جلوگیری از این اتفاق کار کنیم.»