هوش مصنوعی لحن زبانی را یاد می‌گیرد/ الگوهای احساسی چقدر قابل اعتمادند؟

نسل جدید هوش مصنوعی که به مدل «احساس برانگیز» معروف شده مجهز به یک رابط صوتی است و می‌تواند لحن زبان انسان را بفهمد و تا حدودی کنایه را نیز درک کند.

به گزارش گروه علم و فناوری ایسکانیوز، هوش مصنوعی، ادعا دارد که می‌تواند احساسات ما را بفهمد. این ویژگی ضمن آنکه تجربه کاربر را بهبود می‌بخشد با نگرانی‌هایی مبنی بر سوءاستفاده و جانبداری همراه است. این یعنی حوزه فعالیت هوش مصنوعی با مخاطرات بالقوه احاطه شده است.

استارت‌آپ هوش مصنوعی هیوم (Hume) مدعی توسعه نخستین دستیار صوتی هوش مصنوعی در جهان است که ادعا می‌کند احساسات را در صدای ما تشخیص می‌دهد و همدلانه پاسخ می‌دهد. آلن کاون (Alan Cowen) دانشمند و مدیرعامل شرکت «هیوم» می‌گوید: ما مدل بزرگی را آموزش دادیم که حتی لحن زبان شما را هم می‌فهمد. این مدل می‌تواند عبارت‌های زبانی یا جمله‌ها را پیش‌بینی کند و نیز الگوهای احساسی را به خاطر بیاورد.»

شرکت اُپن‌ای آی در ماه مه گذشته نسخه جدید هوش مصنوعی خود به نام «جی پی تی-۴ احساس برانگیز» یا به اصطلاح «هوش مصنوعی احساسی» را عرضه کرد که در نوع خود، کسب‌وکاری بزرگ است. از طرفی، هوش مصنوعی «هیوم» نیز در دومین تأمین مالی خود در ماه مارس ۵۰ میلیون دلار بودجه اضافه کرد و پیش‌بینی می‌شود که ارزش این صنعت در سال جاری به بیش از ۵۰ میلیارد دلار برسد

پروفسور اندرو مک استِی (Andrew McStay)، مدیر آزمایشگاه هوش مصنوعی احساسی در دانشگاه بنگور واقع در جنوب بریتانیا، باور دارد که چنین پیش‌بینی‌هایی بی‌معنی است. او می‌گوید: «احساس، چنان بُعد اساسی و مهمی در زندگی انسان دارد که اگر بتوانیم احساسات را به روش‌های طبیعی درک و اندازه‌گیری و به آن واکنش نشان دهیم، ارزش پیامدهای آن بیش از ۵۰ میلیارد دلار خواهد بود».

فناوری هوش مصنوعی این پتانسیل را دارد که به طرق مختلف مورد استفاده قرار گیرد، از بهبود تجربیات بازی‌های ویدیویی و تماس‌های خدمات مشتریان گرفته تا احتمال استفاده برای نظارت گسترده و تاثیرگذاری بر احساسات مردم. سوال بزرگ این است که آیا هوش مصنوعی واقعاً می‌تواند احساسات ما را درک کند یا خیر؟ و اگر نوعی از این فناوری بدون توجه در راه است، چگونه باید با آن مواجه شویم. اگر به «رابط صوتی همدلانه هیوم» (EVI) بگویید: «دوستت دارم» با صدایی دوستانه و تقریباً انسانی پاسخ می‌دهد: «از کلمات محبت‌آمیز شما قدردانی می‌کنم، من اینجا هستم تا از شما حمایت کنم.»

آلن کاون توضیح می‌دهد: «برای مدل هیوم سخت است که لحن‌هایی را که قبلاً با آنها روبه‌رو نشده درک کند. برای مثال، آیا یک هوش مصنوعی همدل می‌تواند تشخیص دهد که مردم گاهی احساسات خود را پنهان می‌کنند؟»
رابرت دنیرو، هنرپیشه نامدار هالیوود و استاد به‌تصویر کشیدن احساسات انسانی، می‌گوید: «مردم تلاش نمی‌کنند احساسات خود را نشان دهند، بلکه سعی می‌کنند آنها را پنهان کنند.»

کاون می‌گوید هدف مدل هیوم فقط درک عبارات روشن و صریح است و انصافاً «رابط صوتی همدلانه هیوم» به‌طور قابل‌توجهی پاسخگو و طبیعی است. در اوایل سال جاری میلادی، چند دانشمند آمریکایی در آزمایشگاه فناوری گفتار دانشگاه گرونینگن در هلند به هوش مصنوعی آموزش دادند که چگونه طعنه را تشخیص دهد.
کولر استدلال می‌کند: «وقتی به نحوه نفوذ ماشین‌ها در زندگی انسان‌ها نگاه می‌کنیم باید حتماً مطمئن شویم که این ماشین‌ها واقعاً می‌توانند به روشی مفید به مردم کمک کنند.»

یکی از مسائل مهم این است که هیچ تعریف روشنی از چیستی احساسات وجود ندارد و متخصصان در مورد نحوه ابراز آنها اختلاف نظر دارند. برخی از مطالعات نشان میدهد که درک دقیق احساسات فقط بر اساس حالات چهره، حتی برای هوش مصنوعی، دشوار است.

نگرانی دیگر، سوگیری هوش مصنوعی است. اگر داده‌های آموزشی برای هوش مصنوعی احساسی مغرضانه باشد، هوش مصنوعی می‌تواند به‌طور غیرمنصفانه احساسات منفی را به گروه‌های خاصی از مردم نسبت دهد، که می‌تواند عواقب جدی در زمینه‌هایی مانند استخدام، مراقبت‌های بهداشتی و اجرای قانون داشته باشد.

همچنین این نگرانی وجود دارد که هوش مصنوعی احساسی بتواند افراد را برای منافع تجاری یا سیاسی از نظر فکری یا روانی دستکاری کند. برای رفع این نگرانی‌ها، برخی از سازمان‌ها دستورالعمل‌های اخلاقی برای استفاده از هوش مصنوعی احساسی و مقرراتی را برای جلوگیری از سوء استفاده وضع کرده‌اند.

به عنوان مثال، اتحادیه اروپا قانونی را تصویب کرده است که استفاده از هوش مصنوعی احساسی را در شرایط خاص محدود می‌کند و نیز استفاده از هوش مصنوعی را برای دستکاری رفتار انسان ممنوع کرده است. بریتانیا همچنین اقداماتی را برای تنظیم هوش مصنوعی احساسی انجام می‌دهد تا از مردم در برابر آسیب‌های احتمالی محافظت کند.

هوش مصنوعی احساسی برای بهبود تعاملات انسان و ماشین پتانسیل بالایی دارد، اما با چالش‌های اخلاقی و عملی قابل توجهی روبه‌رو است و در این میان، دولت‌ها و ناظران قانونی باید در راستای توسعه مسئولانه آن تلاش کنند.

انتهای پیام/

منبع: خبرگزاری آنا

کد خبر: 1235186

برچسب‌ها

نظر شما

شما در حال پاسخ به نظر «» هستید.
  • نظرات حاوی توهین و هرگونه نسبت ناروا به اشخاص حقیقی و حقوقی منتشر نمی‌شود.
  • نظراتی که غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نمی‌شود.
  • 0 + 0 =