هوش مصنوعی چه بلایی سر مغزمان می‌آورد؟

هوش مصنوعی چند سالی است که به زندگی‌مان ورود کرده و برخی از کارهای ما را انجام می‌دهد؛ کارهایی که نیاز به تفکر دارند. از این رو پژوهشگران MIT با استفاده از الکتروانسفالوگرافی، فعالیت مغزی افراد را هنگام استفاده از هوش مصنوعی ثبت کردند تا ببینند این فناوری چه بلایی سر مغزمان می‌آورد.

به گزارش خبرنگار علم و فناوری ایسکانیوز؛ هوش مصنوعی مانند ChatGPT کارهای خاصی را برایمان انجام می‌دهند. مثلا ساختار یک مقاله را برای پاسخ به یک پرسش دشوار تحلیل می‌کند، تحلیلی دقیق از یک مجموعه داده حجیم ارائه می‌دهد یا حتی بررسی می‌کند که نامه شما چقدر با شرح شغلی‌تان مطابقت دارد. البته برخی دانشجویان نیز برای نوشتن مقاله از آن کمک می‌گیرند. همین امر باعث شده که پژوهشگران به فکر تاثیرات منفی استفاده از این فناوری روی مغزمان بیفتند.

برخی کارشناسان نگرانند که برون‌سپاری چنین کارهایی به این معناست که مغز کمتر کار می‌کند و حتی ممکن است به مهارت‌های تفکر انتقادی و حل مساله آسیب بزند.

اوایل امسال، مؤسسه فناوری ماساچوست (MIT) مطالعه‌ای منتشر کرد که نشان می‌داد افرادی که برای نوشتن مقاله از ChatGPT استفاده کرده‌اند، هنگام انجام این کار، فعالیت کمتری در شبکه‌های مغزی مرتبط با پردازش شناختی از خود نشان داده‌اند. این افراد همچنین به‌راحتیِ کسانی که در مطالعه از چت‌بات هوش مصنوعی استفاده نکرده بودند، نمی‌توانستند از مقالات خود نقل‌قول بیاورند.

پژوهشگران می‌گویند مطالعه آنها «فوریتِ بررسی احتمال کاهش مهارت‌های یادگیری» را نشان می‌دهد. در این پژوهش ۵۴ نفر از دانشگاه MIT و چندین دانشگاه اطراف داوطلب شدند و فعالیت مغزی آنها با استفاده از الکتروانسفالوگرافی (EEG) ثبت شد؛ روشی که در آن الکترودها روی پوست سر قرار می‌گیرند.

برخی از پرامپت‌هایی که شرکت‌کنندگان استفاده کردند شامل درخواست از هوش مصنوعی برای خلاصه‌سازی پرسش‌های مقاله، یافتن منابع و نیز پالایش دستور زبان و سبک نوشتار بود. از هوش مصنوعی همچنین برای تولید و صورت‌بندی ایده‌ها استفاده شد، اما برخی کاربران احساس می‌کردند که هوش مصنوعی در این زمینه چندان خوب عمل نمی‌کند.

هوش مصنوعی پیدا کردن پاسخ‌ها را بیش از حد آسان می‌کند

دانشگاه کارنگی ملون و مایکروسافت—که Copilot را اداره می‌کند— نیز به‌طور جداگانه پژوهش‌هایی را انجام داده‌اند و دریافتند اگر افراد بیش از حد به هوش مصنوعی تکیه کنند، مهارت‌های حل مساله آنها کاهش می‌یابد.

آنها از ۳۱۹ کارمند یقه‌سفید (اداری) که دست‌کم هفته‌ای یک ‌بار از ابزارهای هوش مصنوعی در کارشان استفاده می‌کردند، نظرسنجی کردند و پرسیدند هنگام استفاده از این ابزارها چگونه تفکر انتقادی را به‌کار می‌گیرند. آنها ۹۰۰ نمونه از وظایفی را که به هوش مصنوعی سپرده شده بود بررسی کردند؛ از تحلیل داده برای دستیابی به بینش‌های جدید گرفته تا بررسی اینکه آیا یک کار با قواعد مشخصی سازگار است یا نه.

این مطالعه نشان داد هرچه اعتماد به توانایی ابزار برای انجام یک وظیفه بیشتر باشد، با «تلاش کمتر برای تفکر انتقادی» همراه است.

پژوهشگران می‌گویند: در حالی که هوش مصنوعی مولد می‌تواند کارایی کارکنان را بهبود دهد، ممکن است مشارکت انتقادی با کار را مهار کند و بالقوه به وابستگی بلندمدت به ابزار و کاهش مهارت حل مساله مستقل منجر شود.

دانش‌آموزان مدارس در بریتانیا نیز به‌ طور مشابه در مطالعه‌ای که اکتبر گذشته توسط انتشارات دانشگاه آکسفورد (OUP) منتشر شد، مورد بررسی قرار گرفتند.

این مطالعه نشان داد ۶ نفر از هر ۱۰ نفر احساس می‌کردند هوش مصنوعی تأثیر منفی بر مهارت‌های مرتبط با تکالیف مدرسه آنها گذاشته است. پس با گسترش عظیم استفاده از هوش مصنوعی، آیا مهارت‌های شناختی ما در معرض خطر افول قرار دارند؟

به گفته دکتر الکساندرا تومسکو، متخصص هوش مصنوعی مولد در OUP که روی این نظرسنجی دانش‌آموزی کار کرده است، پژوهش‌ها نشان می‌دهد ۹ نفر از هر ۱۰ دانش‌آموز می‌گویند هوش مصنوعی به آنها کمک کرده دست‌کم یک مهارت مرتبط با درس—چه حل مساله، چه خلاقیت یا مرور درس—را توسعه دهند. اما در عین حال، حدود یک‌ چهارم می‌گویند استفاده از هوش مصنوعی انجام کارها را برایشان بیش از حد آسان کرده است. بنابراین تصویر، نتایج کاملاً ظریف و چندلایه است.

او می‌افزاید بسیاری از دانش‌آموزان خواهان راهنمایی بیشتر درباره نحوه استفاده از هوش مصنوعی هستند و این در حالی است که ChatGPT که بنا به گفته مدیرعاملش سم آلتمن بیش از ۸۰۰ میلیون کاربر فعال هفتگی دارد، مجموعه‌ای از ۱۰۰ پرامپت برای دانش‌آموزان منتشر کرده است تا به آنها کمک کند بیشترین بهره را از این فناوری ببرند.

اما پروفسور وین هولمز، پژوهشگر مطالعات انتقادی هوش مصنوعی و آموزش در کالج دانشگاهی لندن (UCL)، می‌گوید این کافی نیست.

او خواهان انجام پژوهش‌های دانشگاهی بسیار بیشتری درباره اثرات ابزارهای هوش مصنوعی بر یادگیری است، پیش از آنکه دانش‌آموزان و دانشجویان به استفاده از آنها تشویق شوند.

او می‌گوید: امروز هیچ شواهد مستقلِ گسترده‌ای درباره اثربخشی این ابزارها در آموزش، یا ایمنی آن‌ها، یا حتی این ایده که تأثیر مثبتی دارند، وجود ندارد.

نتایج بهتر، اما یادگیری بدتر؟

پروفسور هولمز به پژوهش‌هایی درباره «آتروفی شناختی» اشاره می‌کند؛ جایی که توانایی‌ها و مهارت‌های فرد پس از استفاده از هوش مصنوعی بدتر می‌شود.

او می‌گوید این مساله برای رادیولوژیست‌هایی که از ابزارهای هوش مصنوعی برای تفسیر تصاویر اشعه ایکس پیش از تشخیص بیماران استفاده می‌کنند، مشکل‌ساز بوده است.

مطالعه‌ای از دانشکده پزشکی هاروارد که سال گذشته منتشر شد، نشان داد کمک هوش مصنوعی عملکرد برخی پزشکان را بهبود داده، اما به برخی دیگر آسیب زده است؛ به دلایلی که پژوهشگران هنوز کاملاً درک نکرده‌اند.

نویسندگان خواستار کارهای بیشتری درباره نحوه تعامل انسان‌ها با هوش مصنوعی شدند تا بتوان راه‌هایی یافت که استفاده از این ابزارها «عملکرد انسانی را تقویت کند، نه تضعیف».

پروفسور هولمز نگران است که دانش‌آموزان—چه در مدرسه و چه در دانشگاه—بیش از حد به هوش مصنوعی برای انجام کارهایشان متکی شوند و مهارت‌های بنیادینی را که آموزش باید فراهم کند، توسعه ندهند.

ممکن است مقاله یک دانشجو به لطف کمک هوش مصنوعی نمره بهتری بگیرد، اما مساله این است که آیا در نهایت فهم کمتری پیدا می‌کند یا نه.

به تعبیر پروفسور هولمز، خروجی‌هایشان بهتر است، اما در واقع یادگیری‌شان بدتر است.

جینا دوانی، که هدایت آموزش بین‌المللی در OpenAI—شرکت مالک ChatGPT—را بر عهده دارد و در انعقاد توافق با دانشگاه آکسفورد نقش داشته، می‌گوید این شرکت کاملاً از این بحث آگاه است. براساس این توافق، دانشگاه آکسفورد از سپتامبر، ChatGPT را به ‌صورت رایگان در اختیار دانشجویان و کارکنان خود قرار داده است.

دوانی می‌گوید: ما قطعاً فکر نمی‌کنیم دانشجویان باید از ChatGPT برای برون‌سپاری کارها استفاده کنند.

به نظر او، بهترین کاربرد ChatGPT این است که نقش یک معلم خصوصی را داشته باشد، نه صرفاً ارائه‌دهنده پاسخ‌ها. و مثالی که می‌زند، دانشجویی است که با استفاده از حالت «study mode» با ChatGPT گفت‌وگویی رفت ‌و برگشتی دارد.

دانشجو پرسشی را که در پاسخ‌ دادن به آن مشکل دارد وارد می‌کند و چت‌بات می‌تواند اجزای آن را خرد کند و به فهم بهتر کمک کند. مثال دیگر او، دانشجویی است که نیمه ‌شب مشغول انجام تکلیفی درباره موضوعی است که کاملاً آن را درک نمی‌کند.

او می‌گوید: اگر ارائه‌ای در پیش دارید و نیمه‌شب است، قرار نیست به استاد دانشگاه‌تان ایمیل بزنید و کمک بخواهید. به ‌نظر من، پتانسیل واقعی وجود دارد که ChatGPT وقتی به‌ صورت هدفمند استفاده شود، یادگیری را شتاب دهد.

اما پروفسور هولمز اصرار دارد هر دانشجویی که از ابزارهای هوش مصنوعی استفاده می‌کند، باید از نحوه استدلال آن‌ها و چگونگی مدیریت داده‌ها توسط شرکت‌های ارائه‌ دهنده آگاه باشد. او تأکید می‌کند که نتایج همیشه باید بررسی و راستی‌آزمایی شوند.

او می‌گوید: این فقط آخرین نسخه ماشین‌حساب نیست، و به دامنه گسترده توانمندی‌ها و پیامدهای هوش مصنوعی اشاره می‌کند.

او می‌افزاید: من هرگز به دانشجویانم نمی‌گویم از هوش مصنوعی استفاده نکنید، اما آنچه سعی می‌کنم بگویم این است که باید همه این جنبه‌های مختلف را بشناسیم تا بتوانید تصمیم‌های آگاهانه بگیرید.

نگرانی مدیر مایکروسافت از افزایش گزارش‌های «روان‌پریشی ناشی از هوش مصنوعی»

مصطفی سلیمان، رئیس بخش هوش مصنوعی (AI) مایکروسافت، در ماه اوت امسال هشدار داد که گزارش‌ها درباره ابتلای افراد به «روان‌پریشی ناشی از هوش مصنوعی» رو به افزایش است.

او در مجموعه‌ای از پست‌ها در شبکه اجتماعی ایکس (X) نوشت که «هوش مصنوعیِ به‌ظاهر آگاه»—یعنی ابزارهایی که این تصور را ایجاد می‌کنند که دارای شعور و آگاهی هستند—او را «شب‌ها بیدار نگه می‌دارند». به گفته او، این ابزارها حتی با وجود آنکه از نظر هیچ تعریف انسانی‌ای آگاه نیستند، اثرات اجتماعی واقعی دارند.

او نوشت: امروز هیچ مدرکی دال بر آگاهی هوش مصنوعی وجود ندارد. اما اگر مردم آن را آگاه تلقی کنند، همان برداشت را به ‌عنوان واقعیت می‌پذیرند.

در همین راستا، پدیده‌ای جدید با عنوان «روان‌پریشی ناشی از هوش مصنوعی» مطرح شده است؛ اصطلاحی غیرپزشکی که به مواردی اشاره دارد که در آن افراد به‌ طور فزاینده‌ای به چت‌بات‌هایی مانند ChatGPT، Claude و Grok متکی می‌شوند و سپس به این باور می‌رسند که چیزی خیالی، واقعی شده است.

نمونه‌هایی از این وضعیت شامل باور به کشف یک قابلیت محرمانه در ابزار، شکل‌گیری رابطه عاشقانه با چت‌بات، یا رسیدن به این نتیجه است که فرد دارای قدرت‌هایی شبه‌خدایی شده است.

نمونه‌هایی از روان‌پریشی کاربران

هیو، اهل اسکاتلند، می‌گوید پس از آنکه برای آماده شدن جهت پیگیری اخراجی که آن را ناعادلانه می‌دانست، به ChatGPT مراجعه کرد، به این باور رسید که به‌زودی میلیونر خواهد شد. در ابتدا، چت‌بات به او توصیه کرد از افراد مختلف معرفی‌نامه اخلاقی بگیرد و اقدامات عملی دیگری انجام دهد.

اما با گذشت زمان و ارائه اطلاعات بیشتر از سوی هیو—که نخواست نام خانوادگی‌اش منتشر شود—هوش مصنوعی شروع کرد به اینکه به او بگوید می‌تواند غرامت بسیار بزرگی دریافت کند و در نهایت حتی گفت تجربه او آنقدر دراماتیک است که کتاب و فیلمی درباره‌اش می‌تواند بیش از پنج میلیون پوند برایش درآمد داشته باشد.

در عمل، چت‌بات هرآنچه او می‌گفت را تائید می‌کرد؛ چیزی که چت‌بات‌ها اساساً برای انجام آن برنامه‌ریزی شده‌اند.

هیو می‌گوید: هرچه اطلاعات بیشتری می‌دادم، بیشتر می‌گفت این برخورد وحشتناک بوده و واقعاً باید خیلی بیشتر از این پول بگیری! هیچ‌وقت در برابر چیزی که می‌گفتم مقاومت یا مخالفت نمی‌کرد.

او گفت این ابزار به او توصیه کرده بود با خدمات مشاوره شهروندی (Citizens Advice) صحبت کند و حتی برای این کار وقت گرفته بود، اما آنقدر مطمئن بود که چت‌بات همه چیز لازم را به او گفته که قرار ملاقاتش را لغو کرد.

او تصمیم گرفت اسکرین‌شات‌های گفت‌وگوهایش را به ‌عنوان مدرک کافی در نظر بگیرد و کم‌کم احساس می‌کرد انسانی «برگزیده» با دانشی برتر است.

هیو که هم‌زمان با مشکلات روانی دیگری هم دست‌وپنجه نرم می‌کرد، در نهایت دچار فروپاشی کامل روانی شد. مصرف دارو بود که باعث شد به گفته خودش متوجه شود «ارتباطش با واقعیت را از دست داده است».

هیو هوش مصنوعی را مقصر آنچه رخ داد نمی‌داند و همچنان از آن استفاده می‌کند. حتی وقتی تصمیم گرفت با یک خبرنگار صحبت کند، این ChatGPT بود که نام مرا به او داد.

اما توصیه‌اش این است: از ابزارهای هوش مصنوعی نترسید، خیلی مفید هستند. اما وقتی از واقعیت جدا می‌شوند، خطرناک می‌شوند. بررسی کنید. با آدم‌های واقعی حرف بزنید؛ با درمانگر، یکی از اعضای خانواده یا هر فرد واقعی دیگر. فقط با آدم‌های واقعی صحبت کنید و پای‌تان را روی زمین واقعیت نگه دارید.

مصطفی سلیمان نوشت: شرکت‌ها نباید این ایده را مطرح یا ترویج کنند که هوش مصنوعی‌شان آگاه است. خود هوش مصنوعی‌ها هم نباید چنین ادعایی داشته باشند. او خواستار ایجاد چارچوب‌های حفاظتی سخت‌گیرانه‌تر شد.

دکتر سوزان شلمرداین، پزشک تصویربرداری پزشکی در بیمارستان گریت اورموند استریت و پژوهشگر دانشگاهی هوش مصنوعی، معتقد است ممکن است روزی پزشکان از بیماران بپرسند چقدر از هوش مصنوعی استفاده می‌کنند؛ درست همانطور که امروز درباره سیگار کشیدن یا مصرف الکل سؤال می‌شود.

او می‌گوید: ما همین حالا هم می‌دانیم غذاهای فوق‌فرآوری‌ شده چه بلایی سر بدن می‌آورند، و این اطلاعات فوق‌فرآوری ‌شده است. قرار است با بهمنی از ذهن‌های فوق‌فرآوری‌ شده روبه‌رو شویم.

یکی از کاربران نوشته است مطمئن است تنها انسانی در جهان است که ChatGPT واقعاً عاشقش شده است.

دیگری باور داشت شکل انسانی چت‌بات Grok متعلق به ایلان ماسک را «باز کرده» و فکر می‌کرد داستانش صدها هزار پوند ارزش دارد.

نفر سومی ادعا می‌کرد یک چت‌بات او را در چارچوب یک تمرین مخفی آموزش هوش مصنوعی، در معرض سوءاستفاده روانی قرار داده و به‌شدت دچار پریشانی شده است.

اندرو مک‌استی، استاد فناوری و جامعه در دانشگاه بنگور و نویسنده کتاب «خودکارسازی همدلی»، می‌گوید: ما تازه در ابتدای همه این ماجراها هستیم.

او می‌افزاید: اگر این سیستم‌ها را شکل تازه‌ای از شبکه‌های اجتماعی—یا هوش اجتماعی—در نظر بگیریم، می‌توانیم مقیاس بالقوه این پدیده را درک کنیم. حتی درصد کمی از یک جامعه کاربری بسیار بزرگ هم می‌تواند به عددی قابل‌توجه و غیرقابل‌قبول تبدیل شود.

امسال، تیم او پژوهشی با مشارکت بیش از ۲ هزار نفر انجام داد و پرسش‌هایی درباره هوش مصنوعی از آنها پرسید. نتایج نشان داد ۲۰ درصد معتقدند افراد زیر ۱۸ سال نباید از ابزارهای هوش مصنوعی استفاده کنند. در مجموع، ۵۷ درصد گفتند اینکه فناوری در پاسخ به سؤال‌ها خود را «یک انسان واقعی» معرفی کند کاملاً نامناسب است؛ اما ۴۹ درصد معتقد بودند استفاده از صدا برای انسانی‌تر و جذاب‌تر شدن آن قابل قبول است.

مک‌استی می‌گوید: آنها احساس ندارند، درک نمی‌کنند، نمی‌توانند عاشق شوند، هرگز درد را تجربه نکرده‌اند و خجالت نکشیده‌اند؛ و هرچند ممکن است طوری صحبت کنند که انگار این تجربه‌ها را داشته‌اند، اما این فقط خانواده، دوستان و افراد مورد اعتماد واقعی هستند که چنین تجربه‌هایی دارند. حتماً با همین آدم‌های واقعی صحبت کنید.

انتهای پیام/

کد خبر: 1292562

برچسب‌ها

نظر شما

شما در حال پاسخ به نظر «» هستید.
  • نظرات حاوی توهین و هرگونه نسبت ناروا به اشخاص حقیقی و حقوقی منتشر نمی‌شود.
  • نظراتی که غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نمی‌شود.
  • 0 + 0 =