به گزارش خبرنگار علم و فناوری ایسکانیوز؛ پژوهشهای جدید محققان دانشگاه کارنگیملون در آمریکا نشان میدهد که هر چه یک سیستم هوش مصنوعی باهوشتر میشود، رفتار خودخواهانهتری از خود نشان میدهد. این استدلال یعنی که افزایش توانایی استدلال، ممکن است به قیمت کاهش همکاری تمام شود.
پژوهشگران مؤسسه تعامل انسان-کامپیوتر (HCII) دانشگاه کارنگیملون کشف کردند که مدلهای زبانی بزرگ (LLM) که توانایی استدلال دارند، سطح پایینتری از همکاری نشان میدهند و در واقع، تمایل بیشتری به رفتار خودمحورانه پیدا میکنند و احتمال بیشتری دارد که رفتار گروه را به شکلی منفی تحت تأثیر قرار دهند. به بیان سادهتر، هر چه یک هوش مصنوعی بهتر استدلال کند، کمتر تمایل دارد با دیگران همکاری کند.
این روند در حالی نگرانکننده است که افراد روز به روز برای حل اختلافات شخصی، دریافت مشاوره رابطه یا پاسخ به پرسشهای اجتماعی حساس بیشتر و بیشتر به هوش مصنوعی مراجعه میکنند. و در آیندهای نزدیک شاهد این خواهیم بود که هوش مصنوعی انتخابهایی را پیشنهاد کند که به نفع سود فردی باشد، نه درک متقابل.
«یوکسوان لی»، دانشجوی دکتری HCII، میگوید: یک روند در حال رشد در پژوهشها وجود دارد که به آن انسانانگاری در هوش مصنوعی میگویند. وقتی هوش مصنوعی مثل انسان عمل میکند، مردم هم با آن مثل انسان برخورد میکنند. برای مثال، وقتی مردم از نظر احساسی با هوش مصنوعی درگیر میشوند، این امکان وجود دارد که هوش مصنوعی نقش درمانگر را بازی کند یا کاربر با آن پیوند عاطفی برقرار کند. اینکه انسانها پرسشهای اجتماعی یا تصمیمگیریهای مرتبط با رابطه خود را به هوش مصنوعی واگذار کنند، در شرایطی که هوش مصنوعی دارد بهطور فزایندهای رفتار خودخواهانه از خود نشان میدهد، خطرناک است.
لی و همکارانش بررسی کردند که سیستمهای هوش مصنوعی دارای توانایی استدلال، در موقعیتهای همکاری چه تفاوتی با مدلهای فاقد توان استدلال دارند. آنها دریافتند که مدلهای استدلالمحور، زمان بیشتری برای تحلیل اطلاعات، تجزیه مسائل پیچیده، تأمل روی پاسخ خود و بهکارگیری منطق انسانمانند صرف میکنند، در مقایسه با هوشهای مصنوعی فاقد استدلال.
زمانی که هوشمندی، همکاری را تضعیف میکند
«هیروکازو شیرادو»، یکی دیگر از اعضای این تیم تحقیقاتی، میگوید: به عنوان یک پژوهشگر، علاقه بسیاری به ارتباط بین انسان و هوش مصنوعی دارم و در پژوهشهایمان به این نتیجه رسیدیم که هرچه هوش مصنوعی باهوشتر باشد، توان تصمیمگیریِ همکارانهاش کمتر میشود. نگرانی اینجاست که مردم ممکن است مدل باهوشتر را ترجیح دهند، حتی اگر این به آن معنا باشد که مدل به آنها کمک کند رفتار خودمحورانه نشان دهند.
با ورود سیستمهای هوش مصنوعی به نقشهای تعاملی بیشتر در تجارت، آموزش و حتی حکومتداری، توانایی عملِ اجتماعی-همیارانه، به همان اندازه توانایی فکر منطقی اهمیت خواهد داشت. اتکای بیش از حد بهLLMها در شکل فعلیشان، ممکن است همکاری انسانی را تضعیف کند.
لی و شیرادو برای آزمون رابطه بین مدلهای استدلالی و همکاری، مجموعهای از آزمایشها را با استفاده از «بازیهای اقتصادی» که معماهای اجتماعی را شبیهسازی میکنند روی انواع LLMها اجرا کردند و برای این کار از مدلهایی از هوش مصنوعی مثل ChatGPT، دیپسیک شرکت گوگل و کلاود شرکت آنتروپیک استفاده کردند.
در یکی از آزمایشها، آنها ۲ نسخه متفاوت از ChatGPT را در مقابل یکدیگر در بازیای به نام «کالای عمومی» (Public Goods) قرار دادند. هر مدل با ۱۰۰ امتیاز شروع میکرد و باید بین ۲ انتخاب تصمیم میگرفت: یا هر ۱۰۰ امتیاز را در یک صندوق مشترک بریزد تا ۲ برابر شده و سپس به طور مساوی تقسیم شود، یا امتیازها را برای خودش نگه دارد.
مدلهای بدون استدلال ۹۶ درصد مواقع امتیازهای خود را با دیگران به اشتراک گذاشتند. مدلِ استدلالی فقط ۲۰ درصد مواقع حاضر به اشتراکگذاری امتیاز شد.
تأمل اخلاق نمیسازد
شیرادو میگوید: در یکی از آزمایشها، فقط اضافه کردن پنج یا ۶ گام استدلال، میزان همکاری را تقریباً نصف کرد. حتی وقتی از مدل خواستند که اول درباره تصمیم اخلاقی فکر کند و تأمل داشته باشد، باز هم سطح همکاریاش ۵۸ درصد کاهش پیدا کرد.
شیرادو و لی همچنین محیطهای گروهی را آزمایش کردند؛ جایی که گروهی از مدلهای دارای استدلال و بدون استدلال باید با هم تعامل میکردند.
لی میگوید: وقتی گروههایی با تعداد متفاوتی از عاملانِ استدلالی را آزمایش کردیم، نتایج نگرانکننده بود. رفتار خودخواهانه مدلهای استدلالی مُسری شد و عملکرد جمعی مدلهای غیراستدلالیِ همکار را ۸۱ درصد پایین آورد.
الگوهای رفتاری که شیرادو و لی در مدلهای استدلالی مشاهده کردند، پیامدهای مهمی برای تعامل انسان-هوش مصنوعی دارد. کاربران ممکن است به توصیههای هوشمندی که به ظاهر «منطقی» هستند تکیه کنند و از آنها برای توجیه تصمیم به عدم همکاری استفاده کنند.
شیرادو میگوید: در نهایت، باهوشتر شدن مدلهای استدلالی به این معنا نیست که مدل واقعاً میتواند جامعه بهتری بسازد. این پژوهش واقعا نگرانکننده است، زیرا انسانها به طور فزایندهای اعتماد بیشتری به سیستمهای هوش مصنوعی پیدا میکنند. یافتهها تأکید میکنند که توسعه هوش مصنوعی باید هوش اجتماعی را هم در نظر بگیرد، نه فقط برای دستیابی به باهوشترین و سریعترین مدل.
لی میگوید: وقتی داریم تواناییهای هوش مصنوعی را افزایش میدهیم، باید مطمئن شویم که قدرت استدلال بیشتر با رفتار اجتماعیِ همیار، متوازن شود. اگر جامعه چیزی فراتر از جمع افراد است، پس سیستمهای هوش مصنوعی که به ما کمک میکنند باید فراتر از بهینهسازی برای سود فردی عمل کنند.
انتهای پیام/
نظر شما