بازطراحی آموزش در هاروارد پس از ۳ سال کشمکش با هوش مصنوعی

استادان هاروارد سه سال پس از ظهور ChatGPT، همچنان در حال سازگار شدن با فناوری‌ای هستند که کلاس‌هایشان را دگرگون کرده و پاییز امسال این تغییرات بیش از هر زمان دیگری نمود پیدا کرده است.

به گزارش خبرنگار علم و فناوری ایسکانیوز؛ وقتی دانشجویان پاییز امسال به کلاس‌های هاروارد بازگردند، بعضی با فضایی تازه و آنالوگ مواجه خواهند شد: امتحانات حضوری، ممنوعیت استفاده از لپ‌تاپ در کلاس و تکالیفی که باید روی کاغذ تحویل داده می‌شد! این تغییرات نتیجه سه سال کشمکش با سیاست‌های مربوط به صداقت علمی بود؛ از زمانی که ChatGPT جعبه پاندورای خلاصه‌سازی متون درسی، کدنویسی خودکار، و مقاله‌های آماده را باز کرد. اصطلاح جعبه پاندورا که ریشه در اسطوره‌های یونان باستان دارد، نماد چیزی است که در ظاهر بی‌خطر یا حتی وسوسه‌برانگیز به نظر می‌رسد، اما اگر باز یا فعال شود، پیامدهای پیش‌بینی‌ناپذیر و غالباً فاجعه‌باری به دنبال دارد.

اگر هم تردیدی وجود داشت که هوش مصنوعی در ذهن استادان و مدیران هاروارد جا گرفته، رئیس جدید کالج آب پاکی را روی دست همه ریخت. دیوید جی. دِمینگ در مراسم خوشامدگویی دانشجویان سال اول، آن‌ها را به آماده شدن برای جهانی متحول ‌شده توسط هوش مصنوعی مولد فراخواند و گفت: جوانان تحصیل‌کرده‌ای مثل شما، همین حالا بزرگ‌ترین کاربران هوش مصنوعی هستید و آنقدر خلاق و بازذهن هستید که بهترین راه‌های استفاده از آن را هم پیدا کنید.

تقریباً هیچ شکی نیست که هوش مصنوعی در کلاس‌های هاروارد همه‌جا حاضر شده است. براساس نظرسنجی بهار ۲۰۲۵ روزنامه کریمسون از دانشکده هنر و علوم، نزدیک به ۸۰ درصد از استادان گفته‌اند که در کارهای کلاسی، محتوایی دیده‌اند که می‌دانستند یا گمان می‌کردند توسط هوش مصنوعی تولید شده است؛ رقمی که نسبت به ۲ سال قبل جهشی چشمگیر دارد.

با این حال، تشخیص کار تولید شده توسط هوش مصنوعی برای استادان آسان نیست. تنها ۱۴ درصد از پاسخ‌دهندگان به نظرسنجی گفتند که «کاملاً مطمئن» هستند می‌توانند تفاوت بین متن انسانی و متن ماشینی را تشخیص دهند. یک پژوهش در دانشگاه ایالتی پنسیلوانیا نشان داد که انسان‌ها فقط در ۵۳ درصد موارد می‌توانند متن ماشینی را درست تشخیص دهند؛ تقریباً در حد پرتاب یک سکه.

برنامه‌های تشخیص ‌دهنده هوش مصنوعی هم چندان قابل اعتماد نیستند. و هر چه مدل‌ها پیشرفته‌تر می‌شوند، دانشجویان هم بی‌پرده‌تر از استفاده مداوم از آن‌ها سخن می‌گویند.

تغییرات در هاروارد

استادان هاروارد سه سال پس از عرضه ChatGPT، در حال بازاندیشی شیوه‌های آموزش هستند. بعضی، دانشجویان را به استفاده از هوش مصنوعی برای تحلیل داده‌ها، ترجمه متون اولیه، یا مرور مطالب قبل از امتحان تشویق می‌کنند. برخی دیگر هم با امتحان‌های حضوری و تکالیف کلاسی تلاش می‌کنند کلاس‌هایشان را در برابر هوش مصنوعی مقاوم کنند.

به گفته بسیاری از استادان، هر رویکردی که داشته باشند، دیگر بازگشتی به شیوه‌های گذشته وجود ندارد. مانند اظهارات آماندا کلی‌باف، رئیس آموزش کارشناسی، که در ایمیلی نوشت: دیگر منطقی نیست که استفاده از هوش مصنوعی را ممنوع کنیم و بعد از دانشجوها بخواهیم مقاله‌های خانگی بنویسند.

او تأکید کرد که حالا وظیفه استادان است که دانشجویان را برای آینده‌ای شکل‌گرفته توسط هوش مصنوعی آماده کنند و گفت: هوش مصنوعی ابزاری قدرتمند است، اما تنها در دست کسی که خودش توانایی ارزیابی نتایجش را داشته باشد. ما باید مطمئن شویم که دانشجویان این مهارت را یاد می‌گیرند.

سیاست واحد وجود ندارد

رکش خورانا، رئیس سابق کالج، در دسامبر ۲۰۲۲ و کمتر از یک ماه پس از انتشار ChatGPT، گفت: همیشه میانبرهایی وجود داشته‌اند. اینکه دانشجوها بخواهند این فناوری را به عنوان میانبر استفاده کنند یا نه، به خودشان بستگی دارد.

مدیران دانشگاه در پشت صحنه در تلاش بودند استراتژی‌ای برای مواجهه با این فناوری تازه و پیامدهای غیرقابل پیش‌بینی آن طراحی کنند.

در سال ۲۰۲۳، هوپی هوکسترا، رئیس تازه‌ منصوب ‌شده دانشکده هنر و علوم، کریستوفر استابز استاد فیزیک و نجوم را به عنوان مشاور هوش مصنوعی منصوب کرد. استابز گفت: ما به هوش مصنوعی مولد به چشم یک آزمایش در حال پیشرفت نگاه کرده‌ایم. چون خیلی سریع تغییر می‌کند، منطقی نیست سیاست کلی و یک‌دست صادر کنیم.

راهنماهای اولیه دانشگاه در تابستان ۲۰۲۳ منتشر شد؛ آن‌ها فقط به اصول صداقت علمی اشاره داشتند اما مشخص نکردند استادان دقیقاً باید با استفاده دانشجویان از هوش مصنوعی چه کنند.

از آن زمان، سه قالب سیاست پیشنهادی تدوین شد: یکی «بسیار محدودکننده»، دیگری «کاملاً تشویق‌کننده»، و سومی میانه‌رو. این الگوها حالا در بسیاری از سرفصل‌های درسی وارد شده‌اند.

از زمانی که این سیاست‌های نمونه در تابستان ۲۰۲۳ معرفی شدند، به‌تدریج در برنامه‌های درسی کالج گسترش یافته‌اند. روزنامه کریمسون سیاست‌های هوش مصنوعی در ۲۰ درس پرطرفدار کالج در پاییز ۲۰۲۵ را تحلیل کرد؛ این دروسی هستند که هر پاییز از سال ۲۰۲۲ تدریس شده و سیلابس‌های آن‌ها برای هر سال به صورت آنلاین موجود است. در پاییز ۲۰۲۲، هیچ‌یک از ۲۰ سیلابس نمونه، اشاره‌ای به هوش مصنوعی یا ChatGPT نداشت. اما بعد از سه سال، وضعیت کاملاً تغییر کرده است؛ همه‌ دروس به جز ۲ مورد اکنون سیاست‌هایی برای تنظیم استفاده از این فناوری دارند.

بیشتر سیاست‌های دروس نمونه، به دانشجویان اجازه می‌دهند تا حدی از هوش مصنوعی استفاده کنند. برای مثال، سیلابس درس آمار می‌گوید که این درس دانشجویان را تشویق می‌کند تا استفاده از هوش مصنوعی مولد را بررسی کنند تا بتوانند بینش‌های مفهومی و نظری کسب کنند و در کدنویسی نیز کمک بگیرند. در مقابل، ۶ مورد از دروس نمونه از جمله شیمی و ریاضیات استفاده از آن را کاملاً ممنوع کرده‌اند.

برخی استادان حتی نحوه ارزیابی را تغییر داده‌اند. مثلاً جسی هافنونگ-گارسکوف استاد تاریخ، پروژه تحقیقاتی پایانی درس مهاجرت را کنار گذاشت و به جای آن امتحان شفاهی گذاشت، چون به گفته او، با وجود یک مدل زبانی نوشتن مقاله خیلی کار راحتی محسوب می‌شود.

هاروارد مقاوم در برابر هوش مصنوعی؟

استادانی چون ریچارد توماس برای نشان دادن ضعف هوش مصنوعی در مقایسه با خلاقیت انسانی از آن استفاده می‌کنند. استادان علوم رایانه و اقتصاد هم ربات‌های گفت‌وگویی طراحی کرده‌اند تا پاسخگوی دانشجویان باشند. برخی، مانند پیتر بول استاد مطالعات شرق آسیا، تکالیف هفتگی هوش مصنوعی تعیین کرده‌اند؛ مثلاً دانشجویان باید متنی تاریخی از چین را با کمک یک مدل ترجمه کنند و بعد تجربه خود را در کلاس به بحث بگذارند.

از نظر استادانی مثل جیمز زناکیس، استاد درس آمار، آموزش درست کار با هوش مصنوعی بخشی ضروری از آماده‌سازی دانشجویان برای پژوهش است. او گفت: هیچ فناوری‌ای مثل مدل‌های چت‌جی‌پی‌تی پژوهش‌های من را شتاب نداده است.

«مرکز آموزشی باک» در هاروارد نیز در سال‌های اخیر به استادان کمک کرده ابزارهای آموزشی مبتنی بر هوش مصنوعی طراحی کنند یا تکالیف «مقاوم در برابر هوش مصنوعی» بچینند.

مرکز آموزشی باک یک مرکز در دانشگاه هاروارد است که به آموزش و حمایت از استادان در زمینه‌ روش‌های تدریس و یادگیری اختصاص دارد. این مرکز به استادان کمک می‌کند تا روش‌های تدریس خود را بهبود دهند و با استانداردهای نوین آموزشی هماهنگ شوند. از فناوری‌های نوین، از جمله هوش مصنوعی، برای آموزش بهره ببرند و ابزارهای آموزشی مبتنی بر هوش مصنوعی را طراحی کنند. کارگاه‌ها و آموزش‌هایی در مورد طراحی تکالیف، ارزیابی دانشجویان و استفاده‌ی مؤثر از فناوری برگزار کنند و همچنین استادان را در ایجاد دروس «AI-Resilient» یا مقاوم در برابر هوش مصنوعی راهنمایی کند، یعنی دروسی که استفاده از هوش مصنوعی مانع یادگیری واقعی دانشجو نشود و سازگار با شرایط نوین آموزشی باشد.

با این حال، برخی استادان همچنان عمیقاً بدبین‌اند. دیدره لینچ استاد ادبیات انگلیسی گفت: دادن نقش محوری به هوش مصنوعی در آموزش — دست‌کم در حوزه علوم انسانی — یک اشتباه وحشتناک است. این انکار چیزی است که اساساً انسان را انسان می‌کند.

برخی هم مجبور به تغییر سبک امتحانات شده‌اند. مثلاً متیو شوارتز استاد فیزیک به دلیل توانایی مدل‌ها در حل مسائل پیچیده مجبور شد امتحان‌های خانگی را حذف کند و به آزمون حضوری روی آورد؛ هرچند به گفته او این به زیان یادگیری دانشجویان تمام می‌شود.

در نهایت، بسیاری از استادان معتقدند که دلیل اصلی گرایش دانشجویان به هوش مصنوعی، نه اعتماد به کیفیت خروجی آن، بلکه فشار سنگین تکالیف و فعالیت‌های بیرون از کلاس است.

هافنونگ-گارسکوف گفت: دانشجویان احساس می‌کنند غرق شده‌اند. مساله بیشتر این است که حجم زیادی کار را در زمان محدود می‌خواهند انجام دهند.

چگونه هوش مصنوعی تا ۲۰۵۰ آموزش را به‌ طور بنیادین تغییر می‌دهد؟

Anthea Roberts, a visiting professor of law at Harvard Law School  and Howard Gardner (right)

به تازگی ۲ نفر از اساتید هاروارد در قالب یک نشست در مورد آینده هوش مصنوعی در آموزش پرداختند. طبق نظر روان‌شناس و دانشمند اجتماعی هاوارد گاردنر — خالق نظریه چندهوشی — و آنتیا رابرتس، استاد مهمان دانشکده حقوق هاروارد و بنیانگذار و مدیرعامل ابزار هوش مصنوعی Dragonfly Thinking، تا سال ۲۰۵۰ آموزش و پرورش به ‌گونه‌ای بنیادین متفاوت خواهد بود.

گاردنر، در سخنرانی خود تغییر ناشی از هوش مصنوعی در آموزش را به اندازه تغییراتی دانست که طی هزار سال رخ داده‌اند و حتی گفت برخی اشکال ذهنی که او به خاطرشان مشهور است، ممکن است منسوخ شوند.

او افزود: نیاز به آنکه همه افراد کلاس همان کار را انجام دهند و به یک شیوه ارزیابی شوند، کاملاً کهنه به نظر خواهد رسید.

گاردنر و رابرتس چشم‌اندازهای متمایزی از یک نظام آموزشی تقویت‌ شده با هوش مصنوعی ارائه دادند.

از دید گاردنر، تا حدود سال ۲۰۵۰ هر کودک به چند سال آموزش در مهارت‌های پایه سه‌گانه (خواندن، نوشتن، حساب) و کمی برنامه‌نویسی نیاز خواهد داشت. پس از آن، معلمانی که نقش‌شان بیشتر مربی‌گونه است، دانش‌آموزان را در فعالیت‌هایی قرار می‌دهند که تفکرشان را به چالش بکشد، آنها را در معرض ایده‌ها قرار دهد و آنها را به سمت حرفه‌هایی هدایت کند که به آنها علاقه دارند.

گاردنر گفت: فکر نمی‌کنم منطقی باشد که همه مثل گذشته ۱۰ یا ۱۵ سال مدرسه بروند.

رابرتس چشم‌انداز دیگری ارائه داد. او معتقد است که نسل بعد باید آموزش ببینند که چگونه یک تیم متشکل از هوش‌های مصنوعی را هدایت کنند.

گاردنر گفت که هوش مصنوعی او را واداشته تا برخی ایده‌های پیشینش درباره توانایی‌های شناختی ضروری را بازاندیشی کند. نظریه چندهوشی گاردنر که نخستین‌بار در کتاب Frames of Mind در سال ۱۹۸۳ آمد، انواع متمایز شایستگی‌های ذهنی را مطرح می‌کرد: منطقی-ریاضی، زبانی، موسیقایی، مکانی (فضایی)، جنبشی-بدنی، بین‌فردی و درون‌فردی.

مشارکت بعدی او، «پنج ذهن برای آینده» در سال ۲۰۰۵، پنج نوع ذهن را پیشنهاد می‌داد که سیاست آموزشی باید به توسعه آنها بپردازد: ذهن منضبط (مثل یادگیری تاریخ، زیست یا ریاضی)، ذهن ترکیب‌کننده (ترکیب رشته‌ها و افکار به‌صورت منطقی)، و ذهن خلاق (اختراع چیزی نو که پایدار بماند). ۲ حالت دیگر — ذهن محترم و ذهن اخلاقی — به ما کمک می‌کنند با دیگران و مسائل پیچیده اجتماعی روبه‌رو شویم.

گاردنر گفت هوش مصنوعی ممکن است به‌زودی سه مورد از این پنج مورد را جایگزین کند.

او افزود: فکر می‌کنم بیشتر جنبه‌های شناختی ذهن — ذهن منضبط، ذهن ترکیب‌کننده و ذهن خلاق — آن‌قدر خوب توسط ماشین‌ها و مکانیسم‌های زبانی بزرگ انجام خواهد شد که اینکه انسانها آنها را انجام دهند، اختیاری خواهد شد.

او همچنین گفت: از سوی دیگر، من اصلاً باور ندارم که جنبه‌هایی مثل احترام — نحوه تعامل ما با دیگر انسان‌ها و اخلاق، نحوه مواجهه ما با مسائل دشوار به ‌عنوان شهروند یا حرفه‌ای، را بتوان یا باید به حتی هوشمندترین ماشین‌ها سپرد.

رابرتس در مورد نگرانی افراد در مورد اینکه ممکن است دانش‌آموزان بار شناختی را به هوش مصنوعی بسپارند و مهارت‌های استدلال نقادانه خود را کاهش دهند، گفت: قطعاً فرصتِ برون‌سپاری شناختی وجود خواهد داشت. و قطعاً فرصت گسترش شناختی هم وجود خواهد داشت. وظیفه ما به‌ عنوان افراد و به ‌عنوان آموزگاران این است که راهی بیابیم تا آن گسترش را به‌ جای آن جایگزینی به‌کار گیریم. هنوز پاسخ روشنی برای این وجود ندارد.

رابرتس گفت که زمانی مجبور شد کتاب‌های دانشگاهی‌اش را کنار بگذارد و شروع به ساخت ابزارهای هوش مصنوعی کند، که این تصمیم پس از آن بود که یک همکار جوان‌تر، «Robo-Anthea» — نسخه رباتیک او، ساخته بود که می‌توانست از دیدگاه او به ‌طور روان گفتگو کند.

او افزود: اکنون تقریباً تمام وقتم را در گفت‌وگویی مداوم با مدل‌های زبانی بزرگ می‌گذرانم. در تمام کارهای دانشگاهی‌ام چت‌جی‌پی‌تی و جمینای را باز و در دیالوگ می‌گذارم. پاسخ‌هایشان را به یکدیگر می‌دهم و دائماً گفت‌وگویی میان ما چهار نفر برقرار است.

گاردنر بر نیاز دانشجویان و معلمان به حفظ «فرادانش» تأکید کرد، زیرا ابزارهای هوش مصنوعی بخشی از تخصص‌ها را جایگزین خواهند کرد. به باور او، حتی اگر تغییرات فوری نباشد، گفت‌وگو درباره‌ چرایی و چگونگی اندیشیدن و ترکیب اطلاعات همواره اهمیت خواهد داشت.

انتهای پیام/

کد خبر: 1281126

برچسب‌ها

نظر شما

شما در حال پاسخ به نظر «» هستید.
  • نظرات حاوی توهین و هرگونه نسبت ناروا به اشخاص حقیقی و حقوقی منتشر نمی‌شود.
  • نظراتی که غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نمی‌شود.
  • 0 + 0 =

    نظرات

    • نظرات منتشر شده: 1
    • نظرات در صف انتشار: 0
    • نظرات غیرقابل انتشار: 0
    • قیاسی IR ۰۹:۵۸ - ۱۴۰۴/۰۷/۲۲
      0 0
      خداقوت میگم به بخش علم و فناوری سایت شما ، خبرهای این بخش بی نظیرند