به گزارش خبرنگار علم و فناوری ایسکانیوز؛ دانشمندان بزرگ هوش مصنوعی سیاستهای سختگیرانهای را برای حاکمیت بر توسعه هوش مصنوعی و جلوگیری از سوءاستفاده از آن پیشنهاد و بر پتانسیل فراتر رفتن هوش مصنوعی از تواناییهای انسانی و ایجاد خطرات جدی تأکید کردند.
کارشناسان هوش مصنوعی نسبت به اقدامات ناکافی جهانی در مورد خطرات هوش مصنوعی هشدار میدهند و از حاکمیت سختگیرانه برای جلوگیری از فجایع احتمالی حمایت میکنند. آنها از رهبران جهان میخواهند تا اقدامات قاطعتری در مورد خطرات هوش مصنوعی انجام دهند و تأکید میکنند که پیشرفتهای حاصل از اولین نشست ایمنی هوش مصنوعی در پارک بلچلی در ۶ ماه پیش ناکافی بوده است.
در آن اجلاس اولیه، رهبران جهانی متعهد شدند که هوش مصنوعی را مسئولانه مدیریت کنند. با این حال، با نزدیک شدن به دومین اجلاس ایمنی هوش مصنوعی در سئول (۲۱ تا ۲۲ ماه مه)، ۲۵ محقق برتر هوش مصنوعی ادعا میکنند که تلاشهای فعلی برای محافظت در برابر خطرات ناشی از این فناوری ناکافی است. در نتیجه اقدامات سیاستی فوری را پیشنهاد میکنند که باید برای مقابله با تهدیدات ناشی از فناوریهای هوش مصنوعی اجرا شوند.
پروفسور «فیلیپ تور»، گروه علوم مهندسی دانشگاه آکسفورد، میگوید: جهان در آخرین اجلاس هوش مصنوعی موافقت کرد که ما نیاز به اقدام داریم، اما اکنون زمان آن رسیده است که از پیشنهادات مبهم به تعهدات ملموس برویم.
دانشمندان در مقالهای توصیههای مهم بسیاری را برای آنچه شرکتها و دولتها باید متعهد به انجام آن باشند ارائه دادند.
واکنش جهان در مواجهه با پیشرفت بالقوه سریع هوش مصنوعی درست نیست
به گفته نویسندگان مقاله، ضروری است که رهبران جهان این احتمال را جدی بگیرند که سیستمهای هوش مصنوعی عمومی بسیار قدرتمند - که عملکرد بهتری از تواناییهای انسانی در بسیاری از حوزههای حیاتی دارند - در دهه جاری یا دهه آینده توسعه خواهند یافت. آنها میگویند که اگرچه دولتها در سراسر جهان در مورد هوش مصنوعی مرزی بحث کردهاند و تلاشهایی برای ارائه دستورالعملهای اولیه انجام دادهاند، اما این به سادگی با امکان پیشرفت سریع و تحولآفرین مورد انتظار بسیاری از کارشناسان ناسازگار است.
تحقیقات فعلی در مورد ایمنی هوش مصنوعی به طور جدی وجود ندارد، به طوری که تنها یک تا سه درصد از انتشارات هوش مصنوعی در مورد ایمنی تخمین زده میشود. علاوه بر این، ما مکانیسمها یا نهادهایی را برای جلوگیری از سوء استفاده و بیاحتیاطی، از جمله در مورد استفاده از سیستمهای مستقلی که قادر به انجام اقدامات مستقل و تعقیب اهداف هستند، نداریم.
فراخوان کارشناسان پیشرو در جهان هوش مصنوعی
با توجه به این موضوع، یک جامعه بینالمللی از پیشگامان هوش مصنوعی فراخوانی فوری برای اقدام صادر کرده است. در مجموع ۲۵ نفر از کارشناسان برجسته دانشگاهی جهان در زمینه هوش مصنوعی و حکمرانی آن از چندین کشور آمریکا، چین، اتحادیه اروپا، بریتانیا و سایر قدرتهای هوش مصنوعی و شامل برندگان جایزه تورینگ، برندگان جایزه نوبل و نویسندگان کتابهای درسی استاندارد هوش مصنوعی این فراخوان را اعلام کردند.
این مقاله برای اولین بار است که چنین گروه بزرگ و بینالمللی از کارشناسان در مورد اولویتهای سیاست گذاران جهانی در مورد خطرات ناشی از سیستمهای پیشرفته هوش مصنوعی به توافق میرسند.
اولویتهای فوری برای حکمرانی هوش مصنوعی
نویسندگان به دولتها توصیه میکنند:
- نهادهای متخصص و سریع برای نظارت بر هوش مصنوعی ایجاد کنید و بودجه بسیار بیشتری را نسبت به آنچه که تقریباً در هر طرح سیاستی فعلی دریافت میکنند، در اختیار آنها قرار دهید. به عنوان مقایسه، موسسه ایمنی هوش مصنوعی آمریکا در حال حاضر دارای بودجه سالانه ۱۰ میلیون دلاری است، در حالی که سازمان غذا و داروی ایالات متحده (FDA) بودجه ۶/۷ میلیارد دلاری دارد.
- به جای تکیه بر ارزیابیهای مدل داوطلبانه یا نامشخص، ارزیابیهای ریسک بسیار دقیقتری را با پیامدهای قابل اجرا الزامی کنید.
- از شرکتهای هوش مصنوعی بخواهید که ایمنی را در اولویت قرار دهند و نشان دهند که سیستمهای آنها نمیتواند آسیبی ایجاد کند. این شامل استفاده از موارد ایمنی (که برای سایر فناوریهای حیاتی ایمنی مانند حمل و نقل هوایی کاربرد دارد) میشود که بار نشان دادن ایمنی را به توسعهدهندگان هوش مصنوعی منتقل میکند.
- اجرای استانداردهای کاهش متناسب با سطوح خطر ناشی از سیستمهای هوش مصنوعی. یک اولویت فوری، تنظیم سیاستهایی است که زمانی که هوش مصنوعی به نقاط عطف قابلیتهای خاصی میرسد، بهطور خودکار فعال شوند. اگر هوش مصنوعی به سرعت پیشرفت کند، الزامات سختگیرانه به طور خودکار اعمال میشود، اما اگر پیشرفت کند شود، الزامات مطابق با آن کاهش مییابد.
به گفته نویسندگان، برای سیستمهای هوش مصنوعی آینده با توانایی استثنایی، دولتها باید آماده باشند تا رهبری مقررات را بر عهده بگیرند. این شامل صدور مجوز توسعه این سیستمها، محدود کردن استقلال آنها در نقشهای کلیدی اجتماعی، توقف توسعه و استقرار آنها در پاسخ به قابلیتهای نگرانکننده، اجباری کردن کنترلهای دسترسی، و نیاز به اقدامات امنیتی اطلاعات قوی برای هکرهای سطح دولتی، تا زمانی که حفاظتهای کافی آماده شود، میشود.
تاثیرات هوش مصنوعی میتواند فاجعه بار باشد
هوش مصنوعی در حال حاضر در حال پیشرفت سریع در حوزههای حیاتی مانند هک، دستکاری اجتماعی و برنامه ریزی استراتژیک است و ممکن است به زودی چالشهای کنترلی بیسابقهای را ایجاد کند. برای پیشبرد اهداف نامطلوب، سیستمهای هوش مصنوعی میتوانند اعتماد انسانی را به دست آورند، منابع را به دست آورند و بر تصمیمگیرندگان کلیدی تأثیر بگذارند. برای جلوگیری از دخالت انسان، آنها میتوانند الگوریتمهای خود را در سراسر شبکههای سرور جهانی کپی کنند. جرایم سایبری در مقیاس بزرگ، دستکاری اجتماعی و سایر آسیبها میتوانند به سرعت تشدید شوند. در درگیریهای باز، سیستمهای هوش مصنوعی میتوانند به طور مستقل انواع مختلفی از سلاحها، از جمله سلاحهای بیولوژیکی را به کار گیرند. در نتیجه، یک شانس بسیار واقعی وجود دارد که پیشرفت کنترل نشده هوش مصنوعی میتواند منجر به تلفات گسترده زندگی و زیست کره و به حاشیه راندن یا انقراض بشریت شود.
«استوارت راسل»، پروفسور علوم کامپیوتر در دانشگاه کالیفرنیا در برکلی و نویسنده کتاب استاندارد جهانی هوش مصنوعی، میگوید: این مقاله اجماع کارشناسان برجسته است و خواستار مقررات سختگیرانه توسط دولتها است، نه کدهای داوطلبانه. رفتار نوشته شده توسط صنعت زمان آن رسیده است که در مورد سیستمهای پیشرفته هوش مصنوعی جدی بگیرید. اینها اسباببازی نیستند. افزایش قابلیتهای آنها قبل از اینکه بفهمیم چگونه آنها را ایمن کنیم کاملاً بیپروا است. شرکتها شکایت خواهند کرد که رعایت مقررات بسیار سخت است و بهانه میآورند که مقررات نوآوری را خفه میکند. تمام این ادعاها مسخره است. با این حال، مقررات مربوط به ساندویچفروشیها بیشتر از شرکتهای هوش مصنوعی است.
انتهای پیام/
نظر شما