برندگان جایزه نوبل خواستار مقررات سخت برای هوش مصنوعی شدند

«جفری هینتون»، برنده جایزه نوبل فیزیک و «دمیس حسابیس»، برنده نوبل شیمی، با وجودی که هر ۲ به دلیل کارهای ارزشمندشان در هوش مصنوعی برنده این جایزه شدند، خواستار قانون سفت و سخت برای این فناوری شدند.

به گزارش خبرنگار علم و فناوری ایسکانیوز؛ دمیس حسابیس در یک کنفرانس خبری در استکهلم گفت: هوش مصنوعی یک فناوری بسیار مهم است که باید خیلی سریع سر و سامان پیدا کند. فکر می‌کنم که باید قوانینی را به درستی تصویب کنیم تا بتوانیم این فناوری را که به سرعت در حال حرکت است، تحت نظارت خود درآوریم.

حسابیس به طور مشترک با ۲ آمریکایی به نام‌های «دیوید بیکر» و «جان جامپر» به دلیل افشای اسرار پروتئین‌ها از طریق هوش مصنوعی برنده جایزه نوبل شد. اما او در مورد این فناوری بزرگ می‌گوید: چنین سرعت تکاملی ما را با چالش بزرگی مواجه خواهد کرد. موضوع اساسی این است که می‌خواهیم از این سیستم‌ها برای چه استفاده کنیم، چگونه می‌خواهیم آنها را مستقر کنیم و اطمینان حاصل کنیم که همه بشریت از آنچه این سیستم‌ها می‌توانند انجام دهند سود می‌برند.

هینتون بریتانیایی-کانادایی که به عنوان «پدرخوانده هوش مصنوعی» شناخته می‌شود، با کنایه از ترسش از احتمال افزایش رقابت تسلیحاتی توسط هوش مصنوعی، تاکید کرد که «ای کاش زودتر به ایمنی این فناوری فکر می‌کردم».

هینتون که سال گذشته با خروج از گوگل خبرساز شد و درباره خطراتی که ماشین‌ها می‌توانند روزی از مردم پیشی بگیرند، حسابی غوغا به پا کرد، به همراه جان‌هاپفیلد آمریکایی برای کار روی شبکه‌های عصبی مصنوعی جایزه نوبل خود را دریافت کرد.

حسابیس در این کنفرانس گفت: دولت‌ها حاضر نیستند خود را در مورد سلاح‌های خودمختار مرگبار اصلاح کنند و یک مسابقه تسلیحاتی بین تمام تامین‌کنندگان اصلی تسلیحات مانند ایالات متحده، چین، روسیه، بریتانیا و اسرائیل در جریان است.

او افزود: هوش مصنوعی اول راه است و باید خیلی سریع برای آن چارچوب تعیین کنیم. به همین دلیل به دولت‌ها توصیه می‌کنم که «مقررات سریع و چابکی» وضع کنند.

او گفت که به دولت‌ها و جامعه مدنی توصیه می‌کرده تا قوانینی را در حوزه‌هایی مانند مراقبت‌های بهداشتی و حمل‌ونقل ایجاد کنند و ببینند که چگونه فناوری توسعه می‌یابد. سپس خودشان را به سرعت با مسیری که فناوری پیش می‌رود، سازگار کنند.

حسابیس همچنین با تاکید بر اینکه ایلان ماسک هم در مورد تهدید وجودی ناشی از استفاده نامناسب از هوش مصنوعی صحبت کرده است، گفت: این امر نشان می‌دهد که میلیاردر فناوری هم نگران احتمال سلب کنترل توسط هوش مصنوعی از انسان است.

او اضافه کرد که مطمئن است ماسک زمانی که دونالد ترامپ در ماه ژانویه به کاخ سفید بازگردد، این موضوع را به ترامپ و دولتش ابلاغ خواهد کرد.

البته حسابیس هشدار داد که مطمئن نیست آیا همه تیم ترامپ لزوماً به اندازه کافی با خطرات ناشی از هوش مصنوعی آشنایی دارند یا خیر و خود ماسک هم فرد خیلی اخلاقی‌ای نیست.

گفتنی است که برندگان جایزه نوبل چند ماه پیش که جایزه‌شان را دریافت کردند نیز در مورد نگرانی‌های خود در مورد هوش مصنوعی صحبت کردند و خواستار مقررات بیشتر برای اطمینان از استفاده ایمن از آن شدند.

جفری هینتون نظراتش را در مورد امکان نزدیک شدن سریع هوش مصنوعی به «فوق هوش» -سطحی از هوش که از توانایی‌های انسانی فراتر می‌رود - به اشتراک گذاشت. هینتون تاکید کرد که این اتفاق ممکن است طی پنج تا 20 سال آینده رخ دهد، بازه زمانی که به نظر او کوتاه‌تر از حد انتظار بود.

هینتون در طی مصاحبه‌ دیگری نیز که سال گذشته پخش شد، گفت که این امکان وجود دارد که هوش مصنوعی در نهایت بتواند انسان‌ها را دستکاری کند.

او افزود: هوش مصنوعی در متقاعد کردن مردم بسیار خوب خواهد بود، زیرا تمام رمان‌هایی که تا به حال نوشته شده است -همه کتاب‌های ماکیاولی، همه همدستی‌های سیاسی- خوانده‌اند و به راحتی می‌توانند هر آنچه در داستان‌ها آمده را در دنیای واقعی انجام دهند.

دارون عجم اوغلو، برنده جایزه نوبل علوم اقتصادی نیز در مورد تأثیر بالقوه هوش مصنوعی بر نابرابری جهانی بحث کرد و در حالی که مزایای هوش مصنوعی را برای کشورهای در حال توسعه به رسمیت می‌شناخت، از تمرکز کنترل هوش مصنوعی در دست چند نهاد قدرتمند انتقاد کرد. او هشدار داد که این تمرکز قدرت می‌تواند اختلافات اقتصادی بین کشورهای ثروتمند و فقیر را تشدید کند.

خوشحالی پدرخوانده هوش مصنوعی

در ماه نوامبر، بعد از اینکه سم آلتمن، مدیرعامل شرکت OpenAI، از این شرکت اخراج شد، پدرخوانده هوش مصنوعی اعلام کرد خوشحال است که یکی از شاگردانش در اخراج سم آلتمن از این شرکت نقش داشته است.

هینتون با اشاره به شاگرد خود و دانشمند ارشد سابق OpenAI، «ایلیا ساتسکیور»، گفت: به این واقعیت که یکی از شاگردانم سم آلتمن را اخراج کرد، افتخار می‌کنم.

ساتسکیور با مدرک دکتری در علوم کامپیوتر از دانشگاه تورنتو در سال 2013 فارغ‌التحصیل شد و هینتون استاد راهنمای او در این دوره بود.

هینتون گفت: OpenAI با تاکید زیادی بر ایمنی راه‌اندازی شد. هدف اصلی آن توسعه هوش عمومی مصنوعی و اطمینان از ایمن بودن آن بود، ولی با گذشت زمان، مشخص شد که سام آلتمن خیلی کمتر به فکر ایمنی بود تا سود. و این مایه تاسف است.

هینتون همچنین گفت که ساتسکیور در شناخت پتانسیل هوش مصنوعی و خطرات آن آینده‌نگری خوبی دارد. در سال 2012، هنوز به نظر می‌رسید که این هوش‌های دیجیتال تقریباً به خوبی افراد نیستند. آنها ممکن است بتوانند در تشخیص اشیاء و تصاویر مانند مردم عمل کنند، اما در آن زمان ما فکر نمی‌کردیم که آنها قادر به کارهایی چون شناخت زبان و درک چیزهای پیچیده بشوند.

او افزود: ایلیا قبل از من نظرش را تغییر داد. و زمان مشخص کرد که او درست می‌گوید.

ساتسکیور در ماه مه امسال OpenAI را ترک کرد، تنها چند ماه پس از اینکه هیات مدیره شرکت آلتمن را به عنوان مدیرعامل اخراج کرد. در 17 نوامبر 2023، هیات مدیره شرکت در بیانیه‌ای اعلام کرد که آلتمن را برکنار می‌کند، زیرا او به طور مداوم در ارتباطات خود با هیات مدیره صادق نبوده است. با این حال، هیات مدیره جزئیات بیشتری در مورد اخراج آلتمن ارائه نکرد.

انتهای پیام/

کد خبر: 1251842

برچسب‌ها

نظر شما

شما در حال پاسخ به نظر «» هستید.
  • نظرات حاوی توهین و هرگونه نسبت ناروا به اشخاص حقیقی و حقوقی منتشر نمی‌شود.
  • نظراتی که غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نمی‌شود.
  • 0 + 0 =