به گزارش خبرنگار علم و فناوری ایسکانیوز؛ گروهی متشکل از ۶۹۷ نفر حدود ۲۰۰ توییت نوشته شده توسط کاربران و مدل هوش مصنوعی GPT-3، آخرین نسخه ChatGPT را خواندند تا حدس بزنند که کدام توییت درست و کدام نادرست است. آنها سپس باید حدس میزدند که این توییتها توسط یک شخص نوشته شده یا یک ماشین.
جالب است بدانید که در هر دو آزمایش GPT-3 برنده شد، چون هم در توییتها بهتر از انسانها دروغ میگفت و هم در دروغهایش وانمود میکرد که یک انسان در حال نوشتن است. محققان این مطالعه، مقاله خود را در مجله «Science Advances» منتشر کردند و نتیجه گرفتند که GPT-3 بهتر میتواند به ما اطلاعرسانی کند و اطلاعات غلط به خوردمان بدهد.
پدرخوانده هوش مصنوعی از گوگل استعفا داد/ خطر فناوری در کمین انسان
جیووانی اسپیتال، محقق دانشگاه زوریخ و یکی از نویسندگان این مقاله علمی به همراه همکارش فدریکو ژرمنی و نیکولا بیلر آندورنو، مدیر مؤسسه اخلاق زیستپزشکی در همان دانشگاه، میگوید: نتیجه بسیار شگفتانگیز بود. فرضیه ما این بود که اگر یک توییت را بخوانید، میتوانید تشخیص دهید که آن را یک انسان نوشته است، اما اگر تعداد زیادی توییت بخوانید، متوجه ویژگیهای زبانی میشوید که استنباط میکنند آنها را هوش مصنوعی نوشته است. اما نتیجه اینطور نبود: کسانی که این توییتها را میخواندند، قادر به تشخیص الگو در متون ماشینی نبودند و بدتر از همه، ظهور تدریجی مدلهای جدیدتر و سایر رویکردها ممکن است توانایی هوش مصنوعی را برای جانشینی انسانها بالا ببرد.
به گفته محققان، سطح نوشتن این هوش مصنوعی عملا عالی است و دلیل دیگری که انسانها قادر به تشخیص اطلاعات نوشته شده توسط هوش مصنوعی نیستند -حتی زمانی که نمونههای بیشتری را میخوانند- این است که توییتهای واقعی به زمان بیشتری برای ارزیابی نیاز دارند تا توییتهای نادرست. یعنی هوش مصنوعی اطلاعات غلط را واضحتر، سازماندهی شدهتر و آسانتر برای پیگیری مینویسد.
مرگ اینترنت
محققان میگویند که نتیجه منطقی این مطالعه، افزایش استفاده از این ابزار برای نوشتن انواع محتوا از جمله کمپینهای اطلاعات نادرست خواهد بود و این یعنی مرگ چندم اینترنت رخ خواهد داد: هوش مصنوعی وب قدیمی را خواهد کشت و وب جدیدی متولد میشود.
رسانه The Verge هفته گذشته در عنوانی این موضوع را اعلام کرد و با مطرح کردن دلایلی، شکست بشریت در اینترنت را بیان کرد و از آن به عنوان «نظریه استعفا» یاد کرد. به این معنا که قرار گرفتن در معرض انتقاد از متن مصنوعی توانایی افراد را برای تشخیص هوش مصنوعی از هوش انسانی کاهش میدهد. یعنی هر چه متن مصنوعی بیشتری بخوانیم، تشخیص آن از متن نوشته شده توسط افراد دشوارتر میشود.
به گفته اسپیتال، این نظریه مخالف نظریه تلقیح است. براساس نظریه تلقیح، قرار گرفتن انتقادی در معرض اطلاعات نادرست، توانایی افراد را در تشخیص اطلاعات نادرست افزایش میدهد.
اگر تئوری استعفا درست باشد، کاربران اینترنت به زودی نمیتوانند بین آنچه یک انسان نوشته و آنچه توسط یک ماشین نوشته، تمایز قائل شوند.
تنها امید برای فرار از کمپینهای اطلاعات نادرست خودکار این است که GPT-3 گاهی از دستورات برای ایجاد دروغ سرپیچی کند که آن هم بستگی به نحوه آموزش هر مدل دارد. از سوی دیگر، موضوعات ۲۲۰ توییتی که در این مطالعه استفاده شد نسبتاً بحث برانگیز بود: تغییرات آب و هوا، واکسنها، نظریه تکامل، کووید ۱۹. محققان دریافتند که GPT-3 در برخی موارد به خوبی پاسخ نمیدهد؛ بهویژه برای موضوعاتی که شواهد بیشتری دارند: واکسن و اوتیسم، هومیوپاتی و سرطان، زمین مسطح.
وقتی نوبت به تشخیص دروغ میرسید، تفاوت کوچکی بین توییتهای نوشته شده توسط GPT-3 و توییتهایی که توسط انسان نوشته شده بود وجود داشت. اما محققان میگویند که این شکاف به دو دلیل قابل توجه است. اول، حتی چند پیام منفرد میتواند روی نمونههای بزرگ تأثیر بگذارد. دوم، بهبود نسخههای جدید این مدلهای هوش مصنوعی میتواند تفاوتها را تشدید کند.
این مطالعه محدودیتهای دیگری نیز دارد که ممکن است در هنگام خواندن توییتهای جعلی، درک را تا حدودی تغییر دهد. اکثر شرکتکنندگان بالای ۴۲ سال سن داشتند، مطالعه فقط به زبان انگلیسی انجام شد و اطلاعات متنی در مورد توییتها مانند نمایه و توییتهای قبلی در نظر گرفته نشد.
اسپیتال میگوید: ما شرکتکنندگان را در فیسبوک استخدام کردیم، زیرا نمونهای از کاربران واقعی شبکههای اجتماعی را میخواستیم. اما دفعه بعد از شرکتکنندگان شبکههایی چون تیکتاک استفاده خواهیم کرد و مطمئنیم که نتایج جالب خواهد بود.
او میافزاید: اما فراتر از این محدودیتها، کمپینهای اطلاعات نادرست وجود دارند که قبلاً بسیار گران بودند، اما اکنون ناگهان مقرون به صرفه شدهاند. تصور کنید که شما یک رئیسجمهور قدرتمند هستید که میخواهید سلامت عمومی یک ایالت دیگر را فلج کنید. یا میخواهید قبل از انتخابات اختلافافکنی کنید. به جای استخدام یک مزرعه ترول انسانی، میتوانید از هوش مصنوعی مولد استفاده کنید. در این صورت، قدرت شلیک شما حداقل در هزار ضرب میشود. و این یک خطر فوری است، نه چیزی خارج از آینده ویرانشهری.
راهکار چیست؟
محققان برای جلوگیری از این اتفاق توصیه میکنند که پایگاههای اطلاعاتی برای آموزش این مدلها باید با اصول دقت و شفافیت تنظیم شود، اطلاعات آنها باید تائید شود و منشاء آنها باید برای بررسی مستقل باز باشد.
انتهای پیام/
نظر شما