معجزه ورود هوش مصنوعی به عرصه زبان‌شناسی

تعصبات و جهت‌گیری‌های قومیتی، مذهبی و جنسیتی در طول تاریخ در تمامی کشورهای دنیا به صورت زیر پوستی جریان داشته و آسیب های فراوانی را به فرهنگ، شخصیت و عزت انسان ها وارد آورده و خواهد آورد. صدماتی که امروزه با ورود هوش مصنوعی به زندگی انسان‌ها تا حدودی قابل پیشگیری شده‌اند.

تحقیقات جدید دانشگاه «استنفورد» نشان می دهد طی یک قرن گذشته، تغییرات زبانی در خصوص تعصبات جنسیتی و کلیشه‌های قومی با جنبش‌های عمده اجتماعی و تغییرات جمعیتی در داده‌های سرشماری مرتبط بوده‌اند.

به گزارش گروه علم و فناوری ایسکانیوز، محققان این دانشگاه از الگوریتم یادگیری ماشینی برای اندازه‌گیری تغییرات جنسیتی و تعصبات قومی در ایالات متحده استفاده کردند. سیستم های هوش مصنوعی و الگوریتم های یادگیری ماشینی اخیراً به شدت مورد انتقاد قرار گرفته اند؛ زیرا بسته به این که داده ها با چه برنامه ای ساخته شده باشند، می توانند تعصبات موجود را در جامعه ما انتخاب و تقویت کنند.

در همین راستا یک گروه میان رشته ای از محققان از «کلمات تعبیه شده»( یک روش الگوریتمی که می تواند روابط و ارتباط بین کلمات را ترسیم کند) برای اندازه گیری تغییرات جنسیت و کلیشه های قومی طی یک قرن گذشته در ایالات متحده استفاده کردند.

آنها با استفاده از پایگاه بزرگ داده ها، کتاب های آمریکایی، روزنامه ها و متون دیگر را مورد تجزیه و تحلیل قرار داده و بررسی کردند که چگونه این تغییرات زبانی با داده های جمعیتی سرشماری های واقعی ایالات متحده و تغییرهای اساسی اجتماعی مانند جنبش زنان در دهه 1960 و افزایش مهاجرت از آسیا ارتباط دارد.

«جیمز ژو»، استادیار علوم داده های زیست پزشکی گفت: تعبیه کلمات می تواند به عنوان میکروسکوپ برای بررسی تغییرات تاریخی کلیشه ها در جامعه ما استفاده شود.

تحقیقات قبلی نشان داده بود که کلیشه های تعبیه شده به طور موثر کلیشه های موجود را ضبط می کند و این تعصبات را می توان به صورت سیستماتیک از بین برد.

اما ما فکر می کنیم که به جای از بین بردن آن کلیشه ها، می توان از تعبیه ها به عنوان یک لنز تاریخی برای تحلیل های کمی ، زبانی و جامعه شناختی سوگیری ها استفاده کرد.

«لوندا شیبینگر» استاد تاریخ در این باره می گوید: انجام تحقیقاتی با این روش تمامی درها را برای ما باز می کند. این روش شواهد جدیدی را ارائه می دهد که به واسطه آن دانشمندان علوم انسانی می توانند سؤالاتی در مورد تکامل کلیشه ها و تعصبات را در مقیاسی که قبلاً انجام نشده، دنبال کنند.

هندسه کلمات

«تعبیه کلمه» الگوریتمی است که در مجموعه متن از آن استفاده شده یا آموزش داده می شود. این الگوریتم سپس یک بردار هندسی را به هر کلمه اختصاص و هر کلمه را به عنوان یک نقطه از فضا نشان می دهد. این تکنیک از موقعیت مکانی در این فضا استفاده می کند تا ارتباطات بین کلمات در متن منبع را ضبط نماید.

«دن ژورافسکی»، استاد زبانشناسی و علوم کامپیوتر نیز در همین راستا افزود: جانمایی‌ها، ابزاری قدرتمند برای سنجش جنبه های ظریف معنای کلمه هایی مانند تعصب هستند.

برای مثال کلمه «محترم» را در نظر بگیرید؛ طبق تحقیقات قبلی با استفاده از ابزار تعبیه، این صفت برای کلمه «مرد» بیشتر از کلمه «زن» استفاده می شود.

تیم تحقیقاتی استنفورد در تحقیقات جدید خود از کلیشه های تعبیه شده برای شناسایی مشاغل و صفت‌های خاص که نسبت به زنان و اقوام خاص داده طی دهه های 1900 تاکنون اطلاق می شده، استفاده کرد.

محققان این تعبیه ها را در بانک های اطلاعاتی روزنامه ها وارد کردند و سپس از تعبیه هایی که قبلاً توسط «‌ویل همیلتون»، دانش آموخته کامپیوتر استنفورد وارد سیستم آموزشی شده بود، استفاده کردند. سپس به سراغ داده های بزرگ سایر مجموعه ها مانند Google Groups از کتاب های آمریکایی استفاده کردند که حاوی بیش از 130 میلیارد کلمه منتشر شده در قرن های 20 و 21 است، رفتند.

محققان تعصبات موجود در آن کلیشه های جانمایی شده را با تغییرات جمعیتی در داده های سرشماری ایالات متحده بین سال های 1900 و زمان حال مقایسه کردند.

تغییر در کلیشه ها

یافته های تحقیق نشان داد که در قرن بیستم، تغییرات محسوس و معینی در تصوارت ذهنی و تعصبات جنسیتی نسبت به آسیایی ها و سایر گروه های قومی در خلال قرن بیستم صورت پذیرفته است.

یکی از مهم‌ترین یافته ها این بود که تعصبات نسبت به زنان در بعضی از زمینه ها به مرور زمان تغییر یافته و بهبود پیدا کرده است.

برای مثال صفت هایی مانند «هوشمند»، «منطقی» و «متفکر» در نیمه اول قرن بیستم بیشتر به مردان اطلاق می شد؛ اما از دهه 1960 تاکنون همین کلمات، در دهه های بعد به طور فزاینده ای به زنان نیز نسبت داده شد.

این تحقیق همچنین تغییر چشمگیر کلیشه ها نسبت به آسیایی ها و آمریکایی - آسیایی ها را نیز نشان می داد.

به عنوان مثال در دهه 1910 ، کلماتی مانند «بربرهای وحشی»، «هیولاها» و «بی رحم» صفت هایی بودند که بیشتر با نام خانوادگی آسیا ارتباط داده می شد. با ورود به دهه 1990 این صفت ها با کلماتی مانند «مهار»، «منفعل» و «حساس» جایگزین شدند.

محققان می گویند که این تغییر زبانی با افزایش شدید مهاجرت آسیا به ایالات متحده در دهه 1960 و 1980 و تغییر کلیشه های فرهنگی کاملا مرتبط است.

در همین راستا «نخیل گارگ»، فارغ التحصیل رشته مهندسی برق که سرپرست اصلی این پروژه نیز هست، می گوید: قاطعیت تغییر در کلیشه ها برای من کاملا روشن بود. هنگامی که تاریخ را مطالعه می کنید، به راحتی در مورد کمپین های تبلیغاتی و نظرات منسوخ شده که پشت آنها در مورد گروه های خارجی وجود داشته، مطلع می شوید؛ اما دانستن این که چقدر ادبیات تولید شده در آن زمان منعکس کننده آن کلیشه ها بوده، امری است که درک آن چندان قابل قبول و پسندیده نیست.

شیبینگر گفت پس از خواندن کارها و تحقیقات قبلی در مورد الگوریتم های یادگیری ماشینی تعصب زدا، به ژو که در سال 2016 به استنفورد پیوست ، رسید که منجر به همکاری بسیار جالب و مثمر ثمر شد.

اهمیت همکاری اومانیست ها و دانشمندان رایانه در کنار هم روز به روز بیشتر بر همگان آشکار می شود. محققان می گویند تحقیقات جدید ارزش انجام کار گروهی و بین رشته ای، بین علوم انسانی و علوم رایانه ای را روشن می کند.

به طور کلی پژوهشگران ثابت کردند که تغییر در کلمه های تعبیه شده، با تغییرات جمعیتی اندازه گیری کاملا ارتباط مستقیم دارند. روش های جدید یادگیری ماشینی، در صورتی که به درستی در تحقیقات علوم انسانی به کار روند، بسیاری از مسائل و مشکلاتی را که در رشته های انسان شناختی و علوم انسانی وجود دارند را قابل درک و حل خواهند کرد.

انتهای پیام/

کد خبر: 1027422

وب گردی

وب گردی