به گزارش گروه علم و فناوری باشگاه خبرنگاران دانشجویی(ایسکانیوز)؛ همین چند روز پیش بود که مایکروسافت چتروبات نوپای خود را با نام «بینگ» معرفی کرد تا بتواند با چتجیپیتی شرکت OpenAI رقابت کند، اما تحلیلگران با تست این چتبات متفقالقول گفتهاند که بینگ فقط یک چتبات عصبانی است که از انسان تقلید میکند و از خودش هیچ نوآوریای بروز نمیدهد.
این در حالی است که بحثهایی در این هفته در مورد چتروباتها شکل گرفته که در آن از این نوع هوش مصنوعی به عنوان تهدید و تمایل شرکتها به سرقت کد هستهای و ایجاد یک ویروس کشنده یاد شده است.
اژدهای سرخ وارد گود چتباتها میشود
گراهام نوبیگ، دانشیار مؤسسه فناوری زبان دانشگاه کارنگی ملون، در مورد بینگ میگوید: بینگ اساسا یک شبیهساز مکالمات است که محتوای مورد نیازش را در فضای آنلاین پیدا میکند. در نتیجه، زمانی که مکالمهای تغییر میکند، خیلی زود از کوره درمیرود و یا میگوید «دوستت دارم» و یا چیزهایی نظیر این را میگوید، زیرا این محتوا را از فضای آنلاین برمیدارد.
یک چتبات براساس طراحیاش، کلماتی را ارائه میکند که آنها را محتملترین پاسخ بداند، بدون اینکه معنی یا زمینه آن را بداند و افرادی که با این برنامهها وارد مکالمات شوخی میشوند، به طور طبیعی تمایل دارند احساسات و نیت خودشان را به آنچه یک چتروبات میگوید، درک کنند.
سیمون ویلیسون، برنامهنویس، در یکی از پستهای وبلاگش نوشت: مدلهای زبان بزرگ، مفهومی از «حقیقت» ندارند. آنها فقط میدانند که چگونه یک جمله را به روشی که از نظر آماری براساس ورودیها و مجموعه آموزشی آنها محتمل است، کامل کنند.
لورنت دادت، بنیانگذار شرکت فرانسوی فعال در طراحی هوش مصنوعی با نام لایتآن، این نظریه را مطرح میکند که چتروبات بینگ در مبادلاتی آموزش دیده که خودتهاجمی یا ناسازگار بوده است.
او میگوید: پرداختن به این موضوع به تلاش زیاد و بازخوردهای انسانی زیادی نیاز دارد، به همین دلیل است که ما فعلاً تصمیم گرفتیم خود را به موارد تجاری محدود کنیم، نه به موارد محاورهای.
به گفته ویلیسون، بینگ گاهی برای درست کردن دیالوگهایش، مکالمات تهدید کننده پولادین و مکالمات رومانتیک را ترکیب میکند و ملغمهای میسازد که مواجه شدن با آن کمی سخت است.
نظر شما