به گزارش خبرنگار علم و فناوری ایسکانیوز؛ در جوامع جوامع ماقبل تاریخ، انسانها تمایل داشتند از اعضای درون گروه یا از افراد معتبرتر یاد بگیرند، زیرا این اطلاعات به احتمال زیاد قابل اعتماد بود و منجر به موفقیت گروهی میشد. با این حال، با ظهور جوامع مدرن متنوع و پیچیده - و به ویژه در رسانههای اجتماعی - این سوگیریها کمتر موثر میشوند. به عنوان مثال، شخصی که ما به صورت آنلاین با او در ارتباط هستیم ممکن است لزوما آدم قابل اعتمادی نباشد، زیرا افراد در رسانههای اجتماعی به راحتی میتوانند تظاهر کنند.
تیمی از دانشمندان علوم اجتماعی در تحقیقات جدید خود توضیح میدهند که چگونه کارکرد الگوریتمهای رسانههای اجتماعی با غرایز اجتماعی انسان برای تقویت همکاری -که میتواند منجر به قطبیسازی و اطلاعات نادرست در مقیاس بزرگ شود- نادرست است.
این تیم تحقیقاتی چندین نظرسنجی از کاربران توییتر و فیسبوک انجام دادند و نتیجه این مطالعه نشان داد که اکثر کاربران از محتوای سیاسی که میبینند خسته شدهاند. ویلیام بردی، نویسنده اول، روانشناس اجتماعی دانشکده مدیریت کلوگ در نورث وسترن، میگوید: در واقع کاربران از اطلاعات نادرست خسته شدهاند.
بیشتر بخوانید:
کدام کشور بیشترین ضریب نفوذ شبکههای اجتماعی را دارد؟ /بزرگترین گروه سنی اینترنت در ایران؛ ۳۵ تا ۴۴ سال
برادی میافزاید: ما میخواستیم یک بررسی سیستماتیک ارائه کنیم که نحوه تعامل روانشناسی انسانی و الگوریتمهای رسانههای اجتماعی را به روشی درک کنیم که تاثیر آنها روی هم را متوجه شویم. یکی از چیزهایی که این تحقیق برای ما رو کرد، دیدگاه یادگیری اجتماعی است.
او همچنین میگوید: به عنوان روانشناس اجتماعی، دائما در حال مطالعه این هستیم که چگونه میتوانیم از دیگران بیاموزیم. اگر بخواهیم بفهمیم الگوریتمها چگونه بر تعاملات اجتماعی ما تأثیر میگذارند، این چارچوب اساساً مهم است.
انسانها تمایل دارند از دیگران به گونهای بیاموزند که معمولاً همکاری و حل مشکلات جمعی را ترویج میکند، به همین دلیل است که آنها تمایل دارند از افرادی که آنها را بخشی از گروه خود میدانند و افرادی که آنها را معتبر میدانند بیشتر بیاموزند. علاوه بر این، زمانی که سوگیریهای یادگیری برای اولین بار در حال تکامل بودند، اولویتبندی اطلاعات دارای بار اخلاقی و عاطفی مهم بود، زیرا این اطلاعات به احتمال زیاد برای اجرای هنجارهای گروهی و تضمین بقای جمعی مرتبط هستند.
در مقابل، الگوریتمهای رسانههای اجتماعی معمولاً اطلاعاتی را انتخاب میکنند که تعامل کاربر را افزایش میدهد تا درآمد تبلیغاتی را افزایش دهد. این بدان معناست که الگوریتمها همان اطلاعاتی را تقویت میکنند که انسانها تمایل دارند از آنها بیاموزند، و میتوانند فیدهای رسانههای اجتماعی را با اطلاعاتی که محققان آن را معتبر، درون گروهی، اخلاقی و احساسی مینامند، بدون توجه به صحت محتوا یا بازنمایی نظرات یک گروه، بیش از حد اشباع کنند. در نتیجه، محتوای سیاسی افراطی یا موضوعات بحثبرانگیز احتمال بیشتری دارد که تقویت شوند و اگر کاربران در معرض نظرات بیرونی قرار نگیرند، ممکن است با درک نادرستی از نظر اکثریت گروههای مختلف مواجه شوند.
برادی میگوید: اینطور نیست که الگوریتم برای ایجاد اختلال در همکاری طراحی شده باشد. فقط اهداف آن متفاوت است. و در عمل، وقتی این کارکردها را کنار هم قرار میدهید، با برخی از این اثرات بالقوه منفی مواجه میشوید.
برای رفع این مشکل، گروه تحقیقاتی ابتدا پیشنهاد میکند که کاربران رسانههای اجتماعی باید از نحوه عملکرد الگوریتمها و اینکه چرا محتوای خاصی در فید آنها نشان داده میشود، آگاهی بیشتری داشته باشند. شرکتهای رسانههای اجتماعی معمولاً جزئیات کامل نحوه انتخاب الگوریتمهایشان را برای محتوا فاش نمیکنند، اما ممکن است یک شروع توضیحی برای این باشد که چرا یک پست خاص به کاربر نشان داده میشود.
به عنوان مثال، آیا به این دلیل است که دوستان کاربر با محتوا درگیر هستند یا به این دلیل که محتوا به طور کلی محبوب است؟ خارج از شرکتهای رسانههای اجتماعی، تیم تحقیقاتی در حال توسعه مداخلات خود هستند تا به مردم بیاموزند که چگونه مصرف کنندگان آگاهتر رسانههای اجتماعی باشند.
علاوه بر این، محققان پیشنهاد میکنند که شرکتهای رسانههای اجتماعی گامهایی برای تغییر الگوریتمهای خود بردارند و در نتیجه در تقویت جامعه مؤثرتر باشند. الگوریتمها میتوانند بهجای اینکه صرفاً اطلاعات معتبر، درون گروهی، اخلاقی و احساسی را ترجیح دهند، به کاربرانی اولویت دهند که با مجموعهای متنوع از محتوا تعریف میشوند. این تغییرات میتواند به تقویت اطلاعات جذاب ادامه دهد و در عین حال از نمایش بیش از حد محتوای قطبی یا شدید سیاسی در فیدها جلوگیری کند.
انتهای پیام/
نظر شما