به گزارش خبرنگار علم و فناوری ایسکانیوز؛ هوش مصنوعی مانند ChatGPT کارهای خاصی را برایمان انجام میدهند. مثلا ساختار یک مقاله را برای پاسخ به یک پرسش دشوار تحلیل میکند، تحلیلی دقیق از یک مجموعه داده حجیم ارائه میدهد یا حتی بررسی میکند که نامه شما چقدر با شرح شغلیتان مطابقت دارد. البته برخی دانشجویان نیز برای نوشتن مقاله از آن کمک میگیرند. همین امر باعث شده که پژوهشگران به فکر تاثیرات منفی استفاده از این فناوری روی مغزمان بیفتند.
برخی کارشناسان نگرانند که برونسپاری چنین کارهایی به این معناست که مغز کمتر کار میکند و حتی ممکن است به مهارتهای تفکر انتقادی و حل مساله آسیب بزند.
اوایل امسال، مؤسسه فناوری ماساچوست (MIT) مطالعهای منتشر کرد که نشان میداد افرادی که برای نوشتن مقاله از ChatGPT استفاده کردهاند، هنگام انجام این کار، فعالیت کمتری در شبکههای مغزی مرتبط با پردازش شناختی از خود نشان دادهاند. این افراد همچنین بهراحتیِ کسانی که در مطالعه از چتبات هوش مصنوعی استفاده نکرده بودند، نمیتوانستند از مقالات خود نقلقول بیاورند.
پژوهشگران میگویند مطالعه آنها «فوریتِ بررسی احتمال کاهش مهارتهای یادگیری» را نشان میدهد. در این پژوهش ۵۴ نفر از دانشگاه MIT و چندین دانشگاه اطراف داوطلب شدند و فعالیت مغزی آنها با استفاده از الکتروانسفالوگرافی (EEG) ثبت شد؛ روشی که در آن الکترودها روی پوست سر قرار میگیرند.
برخی از پرامپتهایی که شرکتکنندگان استفاده کردند شامل درخواست از هوش مصنوعی برای خلاصهسازی پرسشهای مقاله، یافتن منابع و نیز پالایش دستور زبان و سبک نوشتار بود. از هوش مصنوعی همچنین برای تولید و صورتبندی ایدهها استفاده شد، اما برخی کاربران احساس میکردند که هوش مصنوعی در این زمینه چندان خوب عمل نمیکند.
هوش مصنوعی پیدا کردن پاسخها را بیش از حد آسان میکند
دانشگاه کارنگی ملون و مایکروسافت—که Copilot را اداره میکند— نیز بهطور جداگانه پژوهشهایی را انجام دادهاند و دریافتند اگر افراد بیش از حد به هوش مصنوعی تکیه کنند، مهارتهای حل مساله آنها کاهش مییابد.
آنها از ۳۱۹ کارمند یقهسفید (اداری) که دستکم هفتهای یک بار از ابزارهای هوش مصنوعی در کارشان استفاده میکردند، نظرسنجی کردند و پرسیدند هنگام استفاده از این ابزارها چگونه تفکر انتقادی را بهکار میگیرند. آنها ۹۰۰ نمونه از وظایفی را که به هوش مصنوعی سپرده شده بود بررسی کردند؛ از تحلیل داده برای دستیابی به بینشهای جدید گرفته تا بررسی اینکه آیا یک کار با قواعد مشخصی سازگار است یا نه.
این مطالعه نشان داد هرچه اعتماد به توانایی ابزار برای انجام یک وظیفه بیشتر باشد، با «تلاش کمتر برای تفکر انتقادی» همراه است.
پژوهشگران میگویند: در حالی که هوش مصنوعی مولد میتواند کارایی کارکنان را بهبود دهد، ممکن است مشارکت انتقادی با کار را مهار کند و بالقوه به وابستگی بلندمدت به ابزار و کاهش مهارت حل مساله مستقل منجر شود.
دانشآموزان مدارس در بریتانیا نیز به طور مشابه در مطالعهای که اکتبر گذشته توسط انتشارات دانشگاه آکسفورد (OUP) منتشر شد، مورد بررسی قرار گرفتند.
این مطالعه نشان داد ۶ نفر از هر ۱۰ نفر احساس میکردند هوش مصنوعی تأثیر منفی بر مهارتهای مرتبط با تکالیف مدرسه آنها گذاشته است. پس با گسترش عظیم استفاده از هوش مصنوعی، آیا مهارتهای شناختی ما در معرض خطر افول قرار دارند؟
به گفته دکتر الکساندرا تومسکو، متخصص هوش مصنوعی مولد در OUP که روی این نظرسنجی دانشآموزی کار کرده است، پژوهشها نشان میدهد ۹ نفر از هر ۱۰ دانشآموز میگویند هوش مصنوعی به آنها کمک کرده دستکم یک مهارت مرتبط با درس—چه حل مساله، چه خلاقیت یا مرور درس—را توسعه دهند. اما در عین حال، حدود یک چهارم میگویند استفاده از هوش مصنوعی انجام کارها را برایشان بیش از حد آسان کرده است. بنابراین تصویر، نتایج کاملاً ظریف و چندلایه است.
او میافزاید بسیاری از دانشآموزان خواهان راهنمایی بیشتر درباره نحوه استفاده از هوش مصنوعی هستند و این در حالی است که ChatGPT که بنا به گفته مدیرعاملش سم آلتمن بیش از ۸۰۰ میلیون کاربر فعال هفتگی دارد، مجموعهای از ۱۰۰ پرامپت برای دانشآموزان منتشر کرده است تا به آنها کمک کند بیشترین بهره را از این فناوری ببرند.
اما پروفسور وین هولمز، پژوهشگر مطالعات انتقادی هوش مصنوعی و آموزش در کالج دانشگاهی لندن (UCL)، میگوید این کافی نیست.
او خواهان انجام پژوهشهای دانشگاهی بسیار بیشتری درباره اثرات ابزارهای هوش مصنوعی بر یادگیری است، پیش از آنکه دانشآموزان و دانشجویان به استفاده از آنها تشویق شوند.
او میگوید: امروز هیچ شواهد مستقلِ گستردهای درباره اثربخشی این ابزارها در آموزش، یا ایمنی آنها، یا حتی این ایده که تأثیر مثبتی دارند، وجود ندارد.
نتایج بهتر، اما یادگیری بدتر؟
پروفسور هولمز به پژوهشهایی درباره «آتروفی شناختی» اشاره میکند؛ جایی که تواناییها و مهارتهای فرد پس از استفاده از هوش مصنوعی بدتر میشود.
او میگوید این مساله برای رادیولوژیستهایی که از ابزارهای هوش مصنوعی برای تفسیر تصاویر اشعه ایکس پیش از تشخیص بیماران استفاده میکنند، مشکلساز بوده است.
مطالعهای از دانشکده پزشکی هاروارد که سال گذشته منتشر شد، نشان داد کمک هوش مصنوعی عملکرد برخی پزشکان را بهبود داده، اما به برخی دیگر آسیب زده است؛ به دلایلی که پژوهشگران هنوز کاملاً درک نکردهاند.
نویسندگان خواستار کارهای بیشتری درباره نحوه تعامل انسانها با هوش مصنوعی شدند تا بتوان راههایی یافت که استفاده از این ابزارها «عملکرد انسانی را تقویت کند، نه تضعیف».
پروفسور هولمز نگران است که دانشآموزان—چه در مدرسه و چه در دانشگاه—بیش از حد به هوش مصنوعی برای انجام کارهایشان متکی شوند و مهارتهای بنیادینی را که آموزش باید فراهم کند، توسعه ندهند.
ممکن است مقاله یک دانشجو به لطف کمک هوش مصنوعی نمره بهتری بگیرد، اما مساله این است که آیا در نهایت فهم کمتری پیدا میکند یا نه.
به تعبیر پروفسور هولمز، خروجیهایشان بهتر است، اما در واقع یادگیریشان بدتر است.
جینا دوانی، که هدایت آموزش بینالمللی در OpenAI—شرکت مالک ChatGPT—را بر عهده دارد و در انعقاد توافق با دانشگاه آکسفورد نقش داشته، میگوید این شرکت کاملاً از این بحث آگاه است. براساس این توافق، دانشگاه آکسفورد از سپتامبر، ChatGPT را به صورت رایگان در اختیار دانشجویان و کارکنان خود قرار داده است.
دوانی میگوید: ما قطعاً فکر نمیکنیم دانشجویان باید از ChatGPT برای برونسپاری کارها استفاده کنند.
به نظر او، بهترین کاربرد ChatGPT این است که نقش یک معلم خصوصی را داشته باشد، نه صرفاً ارائهدهنده پاسخها. و مثالی که میزند، دانشجویی است که با استفاده از حالت «study mode» با ChatGPT گفتوگویی رفت و برگشتی دارد.
دانشجو پرسشی را که در پاسخ دادن به آن مشکل دارد وارد میکند و چتبات میتواند اجزای آن را خرد کند و به فهم بهتر کمک کند. مثال دیگر او، دانشجویی است که نیمه شب مشغول انجام تکلیفی درباره موضوعی است که کاملاً آن را درک نمیکند.
او میگوید: اگر ارائهای در پیش دارید و نیمهشب است، قرار نیست به استاد دانشگاهتان ایمیل بزنید و کمک بخواهید. به نظر من، پتانسیل واقعی وجود دارد که ChatGPT وقتی به صورت هدفمند استفاده شود، یادگیری را شتاب دهد.
اما پروفسور هولمز اصرار دارد هر دانشجویی که از ابزارهای هوش مصنوعی استفاده میکند، باید از نحوه استدلال آنها و چگونگی مدیریت دادهها توسط شرکتهای ارائه دهنده آگاه باشد. او تأکید میکند که نتایج همیشه باید بررسی و راستیآزمایی شوند.
او میگوید: این فقط آخرین نسخه ماشینحساب نیست، و به دامنه گسترده توانمندیها و پیامدهای هوش مصنوعی اشاره میکند.
او میافزاید: من هرگز به دانشجویانم نمیگویم از هوش مصنوعی استفاده نکنید، اما آنچه سعی میکنم بگویم این است که باید همه این جنبههای مختلف را بشناسیم تا بتوانید تصمیمهای آگاهانه بگیرید.
نگرانی مدیر مایکروسافت از افزایش گزارشهای «روانپریشی ناشی از هوش مصنوعی»
مصطفی سلیمان، رئیس بخش هوش مصنوعی (AI) مایکروسافت، در ماه اوت امسال هشدار داد که گزارشها درباره ابتلای افراد به «روانپریشی ناشی از هوش مصنوعی» رو به افزایش است.
او در مجموعهای از پستها در شبکه اجتماعی ایکس (X) نوشت که «هوش مصنوعیِ بهظاهر آگاه»—یعنی ابزارهایی که این تصور را ایجاد میکنند که دارای شعور و آگاهی هستند—او را «شبها بیدار نگه میدارند». به گفته او، این ابزارها حتی با وجود آنکه از نظر هیچ تعریف انسانیای آگاه نیستند، اثرات اجتماعی واقعی دارند.
او نوشت: امروز هیچ مدرکی دال بر آگاهی هوش مصنوعی وجود ندارد. اما اگر مردم آن را آگاه تلقی کنند، همان برداشت را به عنوان واقعیت میپذیرند.
در همین راستا، پدیدهای جدید با عنوان «روانپریشی ناشی از هوش مصنوعی» مطرح شده است؛ اصطلاحی غیرپزشکی که به مواردی اشاره دارد که در آن افراد به طور فزایندهای به چتباتهایی مانند ChatGPT، Claude و Grok متکی میشوند و سپس به این باور میرسند که چیزی خیالی، واقعی شده است.
نمونههایی از این وضعیت شامل باور به کشف یک قابلیت محرمانه در ابزار، شکلگیری رابطه عاشقانه با چتبات، یا رسیدن به این نتیجه است که فرد دارای قدرتهایی شبهخدایی شده است.
نمونههایی از روانپریشی کاربران
هیو، اهل اسکاتلند، میگوید پس از آنکه برای آماده شدن جهت پیگیری اخراجی که آن را ناعادلانه میدانست، به ChatGPT مراجعه کرد، به این باور رسید که بهزودی میلیونر خواهد شد. در ابتدا، چتبات به او توصیه کرد از افراد مختلف معرفینامه اخلاقی بگیرد و اقدامات عملی دیگری انجام دهد.
اما با گذشت زمان و ارائه اطلاعات بیشتر از سوی هیو—که نخواست نام خانوادگیاش منتشر شود—هوش مصنوعی شروع کرد به اینکه به او بگوید میتواند غرامت بسیار بزرگی دریافت کند و در نهایت حتی گفت تجربه او آنقدر دراماتیک است که کتاب و فیلمی دربارهاش میتواند بیش از پنج میلیون پوند برایش درآمد داشته باشد.
در عمل، چتبات هرآنچه او میگفت را تائید میکرد؛ چیزی که چتباتها اساساً برای انجام آن برنامهریزی شدهاند.
هیو میگوید: هرچه اطلاعات بیشتری میدادم، بیشتر میگفت این برخورد وحشتناک بوده و واقعاً باید خیلی بیشتر از این پول بگیری! هیچوقت در برابر چیزی که میگفتم مقاومت یا مخالفت نمیکرد.
او گفت این ابزار به او توصیه کرده بود با خدمات مشاوره شهروندی (Citizens Advice) صحبت کند و حتی برای این کار وقت گرفته بود، اما آنقدر مطمئن بود که چتبات همه چیز لازم را به او گفته که قرار ملاقاتش را لغو کرد.
او تصمیم گرفت اسکرینشاتهای گفتوگوهایش را به عنوان مدرک کافی در نظر بگیرد و کمکم احساس میکرد انسانی «برگزیده» با دانشی برتر است.
هیو که همزمان با مشکلات روانی دیگری هم دستوپنجه نرم میکرد، در نهایت دچار فروپاشی کامل روانی شد. مصرف دارو بود که باعث شد به گفته خودش متوجه شود «ارتباطش با واقعیت را از دست داده است».
هیو هوش مصنوعی را مقصر آنچه رخ داد نمیداند و همچنان از آن استفاده میکند. حتی وقتی تصمیم گرفت با یک خبرنگار صحبت کند، این ChatGPT بود که نام مرا به او داد.
اما توصیهاش این است: از ابزارهای هوش مصنوعی نترسید، خیلی مفید هستند. اما وقتی از واقعیت جدا میشوند، خطرناک میشوند. بررسی کنید. با آدمهای واقعی حرف بزنید؛ با درمانگر، یکی از اعضای خانواده یا هر فرد واقعی دیگر. فقط با آدمهای واقعی صحبت کنید و پایتان را روی زمین واقعیت نگه دارید.
مصطفی سلیمان نوشت: شرکتها نباید این ایده را مطرح یا ترویج کنند که هوش مصنوعیشان آگاه است. خود هوش مصنوعیها هم نباید چنین ادعایی داشته باشند. او خواستار ایجاد چارچوبهای حفاظتی سختگیرانهتر شد.
دکتر سوزان شلمرداین، پزشک تصویربرداری پزشکی در بیمارستان گریت اورموند استریت و پژوهشگر دانشگاهی هوش مصنوعی، معتقد است ممکن است روزی پزشکان از بیماران بپرسند چقدر از هوش مصنوعی استفاده میکنند؛ درست همانطور که امروز درباره سیگار کشیدن یا مصرف الکل سؤال میشود.
او میگوید: ما همین حالا هم میدانیم غذاهای فوقفرآوری شده چه بلایی سر بدن میآورند، و این اطلاعات فوقفرآوری شده است. قرار است با بهمنی از ذهنهای فوقفرآوری شده روبهرو شویم.
یکی از کاربران نوشته است مطمئن است تنها انسانی در جهان است که ChatGPT واقعاً عاشقش شده است.
دیگری باور داشت شکل انسانی چتبات Grok متعلق به ایلان ماسک را «باز کرده» و فکر میکرد داستانش صدها هزار پوند ارزش دارد.
نفر سومی ادعا میکرد یک چتبات او را در چارچوب یک تمرین مخفی آموزش هوش مصنوعی، در معرض سوءاستفاده روانی قرار داده و بهشدت دچار پریشانی شده است.
اندرو مکاستی، استاد فناوری و جامعه در دانشگاه بنگور و نویسنده کتاب «خودکارسازی همدلی»، میگوید: ما تازه در ابتدای همه این ماجراها هستیم.
او میافزاید: اگر این سیستمها را شکل تازهای از شبکههای اجتماعی—یا هوش اجتماعی—در نظر بگیریم، میتوانیم مقیاس بالقوه این پدیده را درک کنیم. حتی درصد کمی از یک جامعه کاربری بسیار بزرگ هم میتواند به عددی قابلتوجه و غیرقابلقبول تبدیل شود.
امسال، تیم او پژوهشی با مشارکت بیش از ۲ هزار نفر انجام داد و پرسشهایی درباره هوش مصنوعی از آنها پرسید. نتایج نشان داد ۲۰ درصد معتقدند افراد زیر ۱۸ سال نباید از ابزارهای هوش مصنوعی استفاده کنند. در مجموع، ۵۷ درصد گفتند اینکه فناوری در پاسخ به سؤالها خود را «یک انسان واقعی» معرفی کند کاملاً نامناسب است؛ اما ۴۹ درصد معتقد بودند استفاده از صدا برای انسانیتر و جذابتر شدن آن قابل قبول است.
مکاستی میگوید: آنها احساس ندارند، درک نمیکنند، نمیتوانند عاشق شوند، هرگز درد را تجربه نکردهاند و خجالت نکشیدهاند؛ و هرچند ممکن است طوری صحبت کنند که انگار این تجربهها را داشتهاند، اما این فقط خانواده، دوستان و افراد مورد اعتماد واقعی هستند که چنین تجربههایی دارند. حتماً با همین آدمهای واقعی صحبت کنید.
انتهای پیام/
نظر شما