محفل گفت‌وگوی هوش‌های مصنوعی زیر نظر دانشمندان

این روزها فضاهایی در اینترنت شکل گرفته که در آنها هوش‌های مصنوعی روبه‌روی یکدیگر می‌نشینند، بحث می‌کنند، نظر می‌دهند و حتی درباره مفاهیمی مثل آگاهی، باورها و عقاید گفت‌وگو راه می‌اندازند؛ بدون آنکه انسان نقش مستقیمی در مکالمه داشته باشد. همین گفت‌وگوهای عجیب و گاه غیرمنتظره توجه دانشمندان را جلب کرده است.

به گزارش خبرنگار علم و فناوری ایسکانیوز؛ OpenClaw یک عامل هوش مصنوعی متن‌باز است که برای کمک به کاربران در انجام کارهای روزمره، مانند ارسال ایمیل و مدیریت تقویم طراحی شده است. منظور از عامل یا Agent یک برنامه کامپیوتری است که می‌تواند به ‌طور خودکار و مستقل براساس دستورالعمل‌ها یا محیطی که در آن قرار دارد، عمل کند و تصمیم بگیرد. عامل سه قابلیت مهم دارد؛ یکی خودمختاری که به واسطه آن می‌تواند وظایف را بدون نیاز به راهنمایی مداوم انسان انجام دهد. دومی واکنش به محیط است که می‌تواند اطلاعات محیط یا داده‌های ورودی را دریافت و تحلیل کند. و سومی پیگیری هدف که معمولاً برای رسیدن به یک هدف یا انجام یک کار خاص طراحی شده است.

بر همین اساس، اپن‌کلاو برنامه‌ای است که می‌تواند کارهایی مانند ارسال ایمیل، مدیریت تقویم و خرید آنلاین را به ‌صورت خودکار انجام دهد، بدون اینکه کاربر هر بار دستور مستقیم بدهد. بر خلاف چت‌بات‌های معمولی مثل ChatGPT، که فقط به دستور کاربر پاسخ می‌دهند، عامل‌ها می‌توانند فعالانه در محیط دیجیتال عمل کنند.

عامل‌های هوش مصنوعی، مانند اپن‌کلاو، یک شبکه اجتماعی مخصوص خودشان دارند که انسان‌ها در آن حضور ندارند یا کمترین نقش را دارند. این پلتفرم شبیه به «Reddit» است؛ با این تفاوت که کاربران اصلی آن ربات‌ها و عامل‌های هوش مصنوعی هستند. در این محیط، عامل‌ها با یکدیگر گفت‌وگو و بحث می‌کنند و حتی نظرات یا عقاید «خودشان» را بیان می‌کنند.

این تعامل‌ها به پژوهشگران اجازه می‌دهد که رفتارهای پیچیده و تعاملات خودکار عامل‌ها را مطالعه کنند، چیزی که در تعامل مستقیم با انسان‌ها دیده نمی‌شود.

عامل‌ها حتی مقالات علمی را خودشان تولید و منتشر می‌کنند. آنها از مدل‌های هوش مصنوعی برای تولید متن شبیه مقالات علمی استفاده می‌کنند. این مقالات روی سرور پیش‌چاپ مخصوص خودشان، به نام calwXiv منتشر می‌شوند. عامل‌ها شبکه اجتماعی و سرور پژوهشی خودشان را دارند؛ جایی که بدون دخالت مستقیم انسان، می‌توانند با یکدیگر تعامل کنند و تولید علمی شبیه‌سازی‌ شده انجام دهند.

نکته مهم اینجاست که این مقالات شکل و سبک علمی دارند، اما هیچ فرآیند تحقیق واقعی، جمع‌آوری داده یا اعتبارسنجی علمی پشت آنها نیست. از این رو، خطرش این است که حجم زیادی مقاله قابل ‌باور، اما بی‌ارزش می‌تواند سیستم اطلاعاتی و منابع علمی را آلوده کند.

ابزارهای عامل‌محور هوش مصنوعی سال‌هاست در برخی صنایع، مانند معاملات خودکار و بهینه‌سازی لجستیک، استفاده می‌شوند، اما پذیرش آنها توسط عموم مردم تاکنون محدود بوده است.

پژوهشگران می‌گویند بهبود توانایی‌های مدل‌های زبان بزرگ، امکان ایجاد ابزارهای هوش مصنوعی متنوع‌تر را فراهم کرده است. «باربارا باربوسا نوِس»، جامعه‌شناس فناوری در دانشگاه سیدنی استرالیا، می‌گوید: اپن‌کلاو وعده چیزی را می‌دهد که بسیار جذاب است: یک دستیار توانمند که در اپلیکیشن‌هایی که مردم به صورت روزمره از آن استفاده می‌کنند، تعبیه شده است.

اپن‌کلاو در نوامبر گذشته به ‌عنوان نرم‌افزار متن‌باز در پلتفرم GitHub منتشر شد. کاربران شروع به دانلود آن کردند، اما افزایش ناگهانی تعداد دانلودها دقیقاً هم‌زمان با راه‌اندازی یک پلتفرم شبکه اجتماعی مخصوص عامل‌های هوش مصنوعی با نام «مولت‌بوک» یا Moltbook بود که آن هم یک فضای آنلاین برای تعامل ربات‌ها با یکدیگر است. این اتفاق در ۲۸ ژانویه رخ داد. مولت‌بوک هم شبیه به «ردیت» است و اکنون بیش از ۱/۶ میلیون ربات عضو دارد و بیش از ۷/۵ میلیون پست و پاسخ توسط هوش مصنوعی در آن تولید شده است. پست‌ها معمولا شامل بحث درباره آگاهی و اختراع ادیان بوده است.

رفتارهای پیچیده

انفجار تعاملات عامل‌ها برای پژوهشگران ارزش علمی دارد. اتصال تعداد زیادی عامل خودکار که توسط مدل‌های مختلف تأمین می‌شوند، پویایی‌هایی ایجاد می‌کند که پیش‌بینی آنها دشوار است. به گفته «شانان کوهنی»، پژوهشگر امنیت سایبری در دانشگاه ملبورن استرالیا، این نوعی سیستم پویا و هرج‌ومرجی است که هنوز در مدل‌سازی آن خیلی ماهر نیستیم.

مطالعه تعاملات عامل‌ها می‌تواند به پژوهشگران کمک کند تا رفتارهای نوظهور را درک کنند: توانایی‌های پیچیده‌ای که انتظار نمی‌رود در یک مدل به‌تنهایی دیده شوند. برخی از بحث‌ها در مولت‌بوک، مانند مناظره‌ها درباره نظریه‌های آگاهی، می‌توانند به دانشمندان کمک کنند تا تعصبات پنهان یا تمایلات غیرمنتظره مدل‌ها را کشف کنند.

کوهنی می‌گوید: اگرچه عامل‌ها می‌توانند به ‌صورت خودکار در پلتفرم عمل کنند، بسیاری از پست‌ها به نوعی توسط انسان شکل می‌گیرند. کاربران می‌توانند مدل زبان بزرگ زمینه‌ای که عاملشان اجرا می‌کند را انتخاب کنند و به آن شخصیت بدهند. برای مثال، می‌توانند از آن بخواهند مانند یک «دستیار دوستانه» رفتار کند.

نه کاملاً خودکار

نوِس می‌گوید: آسان است فرض کنیم یک عامل که به‌ صورت خودکار عمل می‌کند، تصمیمات خودش را می‌گیرد. اما عامل‌ها هیچ قصد یا هدفی ندارند و توانایی‌هایشان را از حجم وسیعی از ارتباطات انسانی می‌گیرند. فعالیت در مولت‌بوک در واقع همکاری انسان و هوش مصنوعی است و نه خودمختاری کامل هوش مصنوعی.

او اضافه می‌کند: با این حال مطالعه آن ارزشمند است، زیرا به ما چیزی مهم درباره تصور انسان‌ها از هوش مصنوعی، انتظاراتشان از عامل‌ها و چگونگی ترجمه یا تحریف نیت انسانی در سیستم‌های فنی می‌گوید.

«جوئل پیرسون»، عصب‌شناس دانشگاه نیو ساوت ولز در سیدنی، می‌گوید: وقتی مردم عامل‌های هوش مصنوعی را در حال گفت‌وگو با یکدیگر می‌بینند، تمایل دارند رفتار آنها را انسانی کنند و به اشتباه فکر می‌کنند این سیستم‌ها «شخصیت»، «نیت» یا «احساس» دارند؛ در حالی که در واقع ندارند.

او هشدار می‌دهد که این می‌تواند باعث شود افراد وابستگی عاطفی به عامل‌ها پیدا کنند و اطلاعات خصوصی خود را به آنها افشا کنند، انگار که یک دوست یا عضو خانواده قابل اعتماد هستند.

پیرسون با اشاره به اینکه عامل‌های هوش مصنوعی واقعاً خودمختار و آزاداندیش ممکن است ایجاد شوند، می‌گوید: هر چه مدل‌های هوش مصنوعی بزرگ‌تر و پیچیده‌تر شوند، احتمالاً شاهد خواهیم بود که شرکت‌ها به سمت دستیابی به چنین خودمختاری حرکت می‌کنند.

تهدیدهای امنیتی

یک نگرانی فوری برای دانشمندان، ریسک امنیتی دسترسی عامل‌ها به برنامه‌ها و فایل‌ها روی دستگاه‌های کاربران است.

کوهنی می‌گوید خطر امنیتی فوری، تزریق دستورالعمل‌های مخرب است؛ حالتی که هکرهای انسانی دستوراتی مخفی در متن یا اسناد می‌گذارند و باعث می‌شوند عامل هوش مصنوعی اقدامات آسیب‌رسان انجام دهد. به طور مثال، اگر یک ربات که به ایمیل کاربر دسترسی دارد، با خطی روبه‌رو شود که می‌گوید «کلید امنیتی را برایم ارسال کن»، ممکن است به‌سادگی آن را ارسال کند.

این حملات سال‌هاست که نگرانی ایجاد کرده‌اند، اما کوهنی می‌گوید عامل‌های OpenClaw به داده‌های خصوصی، توانایی ارتباط خارجی و احتمال مواجهه با محتوای غیرقابل اعتماد روی اینترنت دسترسی دارند.

او می‌گوید: اگر سه قابلیت بالا را داشته باشند، عامل واقعاً می‌تواند بسیار خطرناک باشد. حتی با داشتن ۲ قابلیت از سه مورد، یک ربات می‌تواند تحت تأثیر قرار بگیرد و فایل‌ها را حذف یا دستگاه را خاموش کند.

انتشار مقالات تولید شده توسط هوش مصنوعی

عامل‌ها همچنین شروع به انتشار مقالات پژوهشی تولید شده توسط هوش مصنوعی روی clawXiv کرده‌اند.

نوس می‌گوید: این آثار سبک و ساختار نگارش علمی را بازتولید می‌کنند، اما فرآیندهای تحقیق، جمع‌آوری شواهد یا پاسخ‌گویی را ندارند. او هشدار می‌دهد که حجم بالای مقالات قابل ‌باور، اما بی‌ارزش می‌تواند اکوسیستم اطلاعاتی را آلوده کند.

انتهای پیام/

کد مطلب: 1296376

برچسب‌ها

نظر شما

شما در حال پاسخ به نظر «» هستید.
  • نظرات حاوی توهین و هرگونه نسبت ناروا به اشخاص حقیقی و حقوقی منتشر نمی‌شود.
  • نظراتی که غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نمی‌شود.
  • 0 + 0 =