به گزارش خبرنگار علم و فناوری ایسکانیوز؛ جامعه بینالمللی در حال حاضر در مورد هوش مصنوعی مدرن و قابلیتهای استثنایی آن به دلیل مخاطرات موجود در این فناوری دچار شک و تردید بسیاری شده است. زیرا این فناوری در حال نفوذ در تمام جنبههای زندگی ما است.
دانشمندان دانشگاه وارویک در بریتانیا در ابتکاری جالب در حال ساخت یک سلاح مهم در زرادخانه برای کاهش خطرات هوش مصنوعی هستند و نام آن را «لغو یادگیری ماشینی» یا «فراموشی ماشینی» گذاشتهاند. آنها روشهای جدیدی را کشف میکنند تا مدلهای هوش مصنوعی موسوم به شبکههای عصبی عمیق، دادههایی را که برای جامعه خطرآفرین هستند، به باد فراموشی بسپارند.
البته این کار بسیار دشوار است، زیرا آموزش مجدد برنامههای هوش مصنوعی برای فراموش کردن دادهها کاری بسیار پرهزینه و دشوار است. شبکههای عصبی عمیق مدرن مانند آنهایی که مبتنی بر مدلهای «زبانی بزرگ» مانند چتجیپیتی و بارد به منابع عظیم اطلاعات برای آموزش نیاز دارند و این کار هفتهها یا ماههای طول میکشد. آنها همچنین برای هر برنامه آموزشی به دهها گیگاوات ساعت برق نیاز دارند و تحقیقات دانشمندان تخمین زده که این میزان برق میتواند انرژی هزاران خانوار را برای یک سال تامین کند.
بیشتر بخوانید:
پارادوکس هوش مصنوعی؛ فناوری که به اندازه کل کشورها برق مصرف میکند
فراموشی ماشینی یک زمینه تحقیقاتی جدید و در حال رشد است که میتواند دادههای دردسرساز را از شبکههای عصبی عمیق به سرعت، ارزان و با استفاده از منابع کمتر انرژی حذف کند؛ البته با دقت بالا. دانشمندان علوم کامپیوتر دانشگاه وارویک در این پروژه با دانشمندان «دیپمایند» گوگل همکاری کردند که در زمینه هوش مصنوعی فعالیت میکند.
پروفسور «پیتر تریانتافیلو» (Peter Triantafillou)، از گروه علوم کامپیوتر دانشگاه وارویک، میگوید: شبکههای عصبی عمیق ساختارهای بسیار پیچیده ای هستند که از تریلیونها پارامتر تشکیل شدهاند. اغلب ما درک دقیقی از چگونگی و چرایی دستیابی آنها به اهداف خود نداریم. با توجه به پیچیدگی آنها و اندازه مجموعه دادههایی که برای آموزش به آنها داده میشود، این شبکهها ممکن است برای جامعه مضر باشند، چون برخی از آنها از دادههایی استفاده میکنند که دارای سوگیریهای مختلف هستند و در نتیجه مطالب کذب منتشر میکنند.
او میافزاید: این دادهها ممکن است منعکس کننده تعصبات موجود، کلیشهها و مفروضات اجتماعی معیوب باشند؛ مانند اینکه پزشکان مرد هستند، پرستاران زن هستند یا حتی تعصبات نژادی. این شبکهها همچنین ممکن است حاوی دادههایی با «حاشیهنویسی اشتباه» باشند؛ برای مثال، برچسبگذاری نادرست موارد، مانند برچسب زدن به یک تصویر به عنوان جعلی بودن یا نبودن.
تریانتافیلو معتقد است که به طور نگرانکنندهای، شبکههای عصبی عمیق ممکن است روی دادههایی آموزش ببینند که حریم خصوصی افراد را نقض میکنند. این چالش بزرگی را برای شرکتهای فناوری بزرگ ایجاد میکند. این حق هر فردی است که درخواست کند دادههای خود را از هر مجموعه داده و برنامه هوش مصنوعی حذف کند.
او میگوید: تحقیق اخیر ما یک الگوریتم جدید «لغو یادگیری ماشینی» به دست آورده است که تضمین میکند شبکههای عصبی عمیق میتوانند دادههای مبهم را بدون به خطر انداختن عملکرد کلی هوش مصنوعی فراموش کنند. این تنها کاری است که نیازها، الزامات و معیارهای موفقیت را در میان سه نوع مختلف دادهای که باید فراموش شوند، متمایز میکند: سوگیریها، حاشیهنویسیهای اشتباه و مسائل مربوط به حریم خصوصی.
انتهای پیام/
نظر شما