فراموشی ماشینی؛ سلاحی در برابر هوش مصنوعی مضر

دانشمندان انگلیسی در راستای مقابله با خطرات هوش مصنوعی روند جالبی را اتخاذ کرده‌اند؛ فراموشی ماشینی در مقابل یادگیری ماشینی.

به گزارش خبرنگار علم و فناوری ایسکانیوز؛ جامعه بین‌المللی در حال حاضر در مورد هوش مصنوعی مدرن و قابلیت‌های استثنایی آن به دلیل مخاطرات موجود در این فناوری دچار شک و تردید بسیاری شده است. زیرا این فناوری در حال نفوذ در تمام جنبه‌های زندگی ما است.

دانشمندان دانشگاه وارویک در بریتانیا در ابتکاری جالب در حال ساخت یک سلاح مهم در زرادخانه برای کاهش خطرات هوش مصنوعی هستند و نام آن را «لغو یادگیری ماشینی» یا «فراموشی ماشینی» گذاشته‌اند. آنها روش‌های جدیدی را کشف می‌کنند تا مدل‌های هوش مصنوعی موسوم به شبکه‌های عصبی عمیق، داده‌هایی را که برای جامعه خطرآفرین هستند، به باد فراموشی بسپارند.

البته این کار بسیار دشوار است، زیرا آموزش مجدد برنامه‌های هوش مصنوعی برای فراموش کردن داده‌ها کاری بسیار پرهزینه و دشوار است. شبکه‌های عصبی عمیق مدرن مانند آنهایی که مبتنی بر مدل‌های «زبانی بزرگ» مانند چت‌جی‌پی‌تی و بارد به منابع عظیم اطلاعات برای آموزش نیاز دارند و این کار هفته‌ها یا ماه‌های طول می‌کشد. آنها همچنین برای هر برنامه آموزشی به ده‌ها گیگاوات ساعت برق نیاز دارند و تحقیقات دانشمندان تخمین زده که این میزان برق می‌تواند انرژی هزاران خانوار را برای یک سال تامین کند.

بیشتر بخوانید:

پارادوکس هوش مصنوعی؛ فناوری که به اندازه کل کشورها برق مصرف می‌کند

فراموشی ماشینی یک زمینه تحقیقاتی جدید و در حال رشد است که می‌تواند داده‌های دردسرساز را از شبکه‌های عصبی عمیق به سرعت، ارزان و با استفاده از منابع کمتر انرژی حذف کند؛ البته با دقت بالا. دانشمندان علوم کامپیوتر دانشگاه وارویک در این پروژه با دانشمندان «دیپ‌مایند» گوگل همکاری کردند که در زمینه هوش مصنوعی فعالیت می‌کند.

پروفسور «پیتر تریانتافیلو» (Peter Triantafillou)، از گروه علوم کامپیوتر دانشگاه وارویک، می‌گوید: شبکه‌های عصبی عمیق ساختارهای بسیار پیچیده ای هستند که از تریلیون‌ها پارامتر تشکیل شده‌اند. اغلب ما درک دقیقی از چگونگی و چرایی دستیابی آنها به اهداف خود نداریم. با توجه به پیچیدگی آنها و اندازه مجموعه داده‌هایی که برای آموزش به آنها داده می‌شود، این شبکه‌ها ممکن است برای جامعه مضر باشند، چون برخی از آنها از داده‌هایی استفاده می‌کنند که دارای سوگیری‌های مختلف هستند و در نتیجه مطالب کذب منتشر می‌کنند.

او می‌افزاید: این داده‌ها ممکن است منعکس کننده تعصبات موجود، کلیشه‌ها و مفروضات اجتماعی معیوب باشند؛ مانند اینکه پزشکان مرد هستند، پرستاران زن هستند یا حتی تعصبات نژادی. این شبکه‌ها همچنین ممکن است حاوی داده‌هایی با «حاشیه‌نویسی اشتباه» باشند؛ برای مثال، برچسب‌گذاری نادرست موارد، مانند برچسب زدن به یک تصویر به عنوان جعلی بودن یا نبودن.

تریانتافیلو معتقد است که به طور نگران‌کننده‌ای، شبکه‌های عصبی عمیق ممکن است روی داده‌هایی آموزش ببینند که حریم خصوصی افراد را نقض می‌کنند. این چالش بزرگی را برای شرکت‌های فناوری بزرگ ایجاد می‌کند. این حق هر فردی است که درخواست کند داده‌های خود را از هر مجموعه داده و برنامه هوش مصنوعی حذف کند.

او می‌گوید: تحقیق اخیر ما یک الگوریتم جدید «لغو یادگیری ماشینی» به دست آورده است که تضمین می‌کند شبکه‌های عصبی عمیق می‌توانند داده‌های مبهم را بدون به خطر انداختن عملکرد کلی هوش مصنوعی فراموش کنند. این تنها کاری است که نیازها، الزامات و معیارهای موفقیت را در میان سه نوع مختلف داده‌ای که باید فراموش شوند، متمایز می‌کند: سوگیری‌ها، حاشیه‌نویسی‌های اشتباه و مسائل مربوط به حریم خصوصی.

انتهای پیام/

کد خبر: 1204847

برچسب‌ها

نظر شما

شما در حال پاسخ به نظر «» هستید.
  • نظرات حاوی توهین و هرگونه نسبت ناروا به اشخاص حقیقی و حقوقی منتشر نمی‌شود.
  • نظراتی که غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نمی‌شود.
  • 0 + 0 =