به گزارش گروه علم و فناوری باشگاه خبرنگاران دانشجویی(ایسکانیوز)؛ گروهی از فعالان فناوری، متخصصان هوش مصنوعی و علاقهمندان به این حوزه ازجمله ایلان ماسک، مدیرعامل توییتر و تسلا و همچنین استیو وزنیاک، یکی از بنیانگذاران شرکت اپل در نامهای سرگشاده از لابراتوارهای هوش مصنوعی درخواست کردند که حداقل 6 ماه توسعه مدلهای قدرتمندتر از GPT-4 را متوقف کنند.
در این نامه آمده است: همانطور که تحقیقات گسترده نشان داده و آزمایشگاههای برتر هوش مصنوعی نیز آن را تائید کردهاند، سیستمهای هوش مصنوعی با هوش مشابه انسان میتوانند خطرات عمیقی را برای جامعه و بشریت ایجاد کنند. از آنجا که هوش مصنوعی پیشرفته میتواند نشان دهنده یک تغییر عمیق در تاریخ حیات باشد، باید برای آن برنامهریزی و با دقت و منابع متناسب مدیریتش کرد. متأسفانه این سطح از برنامهریزی و مدیریت فعلاً بهچشم نمیخورد، هرچند که آزمایشگاههای هوش مصنوعی در ماههای اخیر وارد رقابتی خارج از کنترل برای توسعه و پیادهسازی ذهنهای دیجیتالی قدرتمندتری شدند که هیچکس – نه حتی سازندگانشان – نمیتوانند آنها را بفهمند و پیشبینی یا به شکلی قابل اطمینان کنترل کنند.
معلمها بیشتر از دانشآموزان از ChatGPT استفاده میکنند
این نامه توسط موسسه غیرانتفاعی «فیوچر آو لایف» منتشر شده و هزار نفر از جمله مدیرعامل شرکت «استبیلیتی ایآی»، یکی از بنیانگذاران پینترست، یکی از بنیانگذاران ریپل و یووال نوح هراری، نویسنده کتاب انسان خردمند آن را امضا کردهاند و خواستار توقف فوری آموزش مدلهای هوش مصنوعی پیشرفتهتر شدهاند.
گری مارکوس، استاد بازنشسته دانشگاه نیویورک و یکی از امضاکنندگان این نامه میگوید: این نامه بینقص نیست، اما هدف آن کاملا درست است. زیرا تا زمانی که درک بهتری نسبت به عواقب این نوع هوش مصنوعی پیدا نکینم، باید سرعت توسعه آن را کاهش دهیم. هوش مصنوعی میتواند آسیبهای جدی در پی داشته باشد و این در حالی است که متخصصان و توسعهدهندگان بزرگ این حوزه روز به روز کارهای خود را مخفیانهتر پیش میبرند. در نتیجه کار جامعه برای مقاومت و حنثی کردن آسیبهای احتمالی این فناوری سختتر میشود.
این نامه در شرایطی نوشته میشود که پلیس اتحادیه اروپا هم به تازگی به جمع سازمانهایی پیوسته که درباره مسائل اخلاقی و حقوقی مدلهای هوش مصنوعی پیشرفته از جمله ChatGPT ابراز نگرانی کرده بودند. جالب است که شرکت پیشگام در این حوزه و سازنده ChatGPT یعنی OpenAI هنوز نسبت به این اقدامات واکنشی نشان نداده است.
نظر شما