به گزارش خبرنگار علم و فناوری ایسکانیوز؛ هوش مصنوعی هماکنون در حل مسائل مربوط به امور مالی، پژوهش و پزشکی نقش مهمی ایفا میکند. اما آیا ممکن است در حال رسیدن به آگاهی باشد؟ دکتر «تام مککللند»، فیلسوف دانشگاه کمبریج، هشدار میدهد که شواهد موجود «به مراتب بیش از حد محدود» هستند و نمیتوان این امکان دیستوپیایی یا ضدآرمان شهری را به طور قطعی رد کرد.
به گفته این کارشناس، تنها موضع عقلانی در برابر این پرسش که آیا هوش مصنوعی آگاه است یا نه، «لاادریگری» است. یعنی موضعی که میگوید در مورد یک پرسش بنیادی، نه عقل سلیم و نه پژوهش سختگیرانه علمی نمیتوانند با قطعیت «بله» و «نه» بگویند، چون شواهد یا ابزار شناختی کافی در دست نیست.
به ادعای او، مشکل اصلی این است که ما اساساً یک «تبیین عمیق» از اینکه چه چیزی باعث میشود چیزی آگاه باشد در اختیار نداریم؛ بنابراین نمیتوانیم آن را در مورد هوش مصنوعی بیازماییم.
مککللند توضیح میدهد: در بهترین حالت، ما تا دستیابی به هرگونه آزمون معتبر برای آگاهی، فاصلهای در حد یک انقلاب فکری داریم. ما نمیتوانیم بدانیم، و شاید هرگز هم ندانیم.
شرکتهای فعال هم در مورد هوش مصنوعی نمیدانند
شرکتهای فعال در حوزه هوش مصنوعی سرمایههای عظیمی را صرف دستیابی به «هوش عمومی مصنوعی» میکنند؛ نقطهای که در آن هوش مصنوعی بتواند در هر زمینهای از انسان پیشی بگیرد. اما همزمان با حرکت به سوی این هدف، برخی نیز مدعیاند که هوش مصنوعی هر چه پیچیدهتر میشود، احتمال اینکه به آگاهی برسد، بیشتر است. این به آن معناست که هوش مصنوعی میتواند توانایی ادراک پیدا کند و به خودآگاهی برسد.
مککللند استدلال میکند: هر چند این ایده ممکن است تصاویری از رباتهای قاتل را در ذهن تداعی کند، اما هوش مصنوعی ممکن است بدون آنکه ما حتی متوجه شویم چنین جهشی را تجربه کند؛ چراکه اساساً هنوز نظریهای مورد اجماع درباره آگاهی نداریم.
برخی نظریهها میگویند آگاهی صرفاً به پردازش اطلاعات به شیوهای خاص مربوط است و اگر هوش مصنوعی بتواند «نرمافزار» یک ذهن آگاه را اجرا کند، ممکن است خود نیز آگاه باشد. در مقابل، نظریههای دیگر استدلال میکنند که آگاهی ذاتاً زیستی است و بنابراین هوش مصنوعی در بهترین حالت فقط میتواند آگاهی را تقلید کند.
با این حال، تا زمانی که مشخص نکنیم کدام یک از این دیدگاهها درست است، اساساً هیچ مبنایی برای آزمودن آگاهی در هوش مصنوعی نداریم.
مککللند در مقالهای که در نشریه Mind and Language منتشر شده، در بحثهای مربوط به آگاهی مصنوعی ۲ جناح فکری اصلی را بیان میکند. طرفداران معتقدند اگر یک سامانه هوش مصنوعی بتواند «نرمافزار» — یعنی معماری کارکردی — آگاهی را بازتولید کند، آنگاه آگاه خواهد بود، حتی اگر به جای بافت مغزی روی تراشههای سیلیکونی اجرا شود. در مقابل، شکاکان استدلال میکنند که آگاهی به نوع درستی از فرایندهای زیستی در یک «سوژه زیستیِ مجسم» وابسته است. حتی اگر ساختار آگاهی روی سیلیکون بازسازی شود، این فقط یک شبیهسازی خواهد بود که بدون آنکه هوش مصنوعی واقعاً وارد حالت آگاهی شود، اجرا میشود.
او میگوید: ما هیچ تبیین عمیقی از آگاهی نداریم. هیچ شواهدی وجود ندارد که نشان دهد آگاهی میتواند صرفاً با داشتن ساختار محاسباتی درست پدیدار شود، یا اینکه اساساً ذاتاً زیستی است.
او اضافه میکند: همچنین هیچ نشانهای وجود ندارد که شواهد کافی در افق دیده شود. بهترین سناریو این است که ما تا دستیابی به هرگونه آزمون معتبر برای آگاهی، فاصلهای در حد یک انقلاب فکری داشته باشیم.
او همچنین میگوید: من باور دارم که گربهام آگاه است. این باور نه چندان بر پایه علم یا فلسفه، بلکه بیشتر بر پایه عقل سلیم است؛ موضوعی که به نوعی بدیهی به نظر میرسد.
او ادامه میدهد: اما عقل سلیم محصول یک تاریخ تکاملی طولانی است که در آن هیچ شکل مصنوعیِ زندگی وجود نداشته؛ بنابراین وقتی پای هوش مصنوعی در میان است، نمیتوان به عقل سلیم اعتماد کرد. اگر هم به شواهد و دادهها رجوع کنیم، آنها هم کارساز نیستند.
مککللند میگوید: ما نمیتوانیم تشخیص دهیم که آیا یک هوش مصنوعی مانند آنچه در فیلم علمی -تخیلی «اکس ماشینا» میبینیم، واقعاً تجربه آگاهانه دارد یا صرفاً در حال شبیهسازی آگاهی است. اینکه چیزی آگاه باشد یا نه، به طور بنیادین نوع پرسشهای اخلاقیای را که باید در نظر بگیریم تغییر میدهد.
او میافزاید: برای مثال، از انسانها انتظار میرود که در قبال انسانهای دیگر و حیوانات رفتاری اخلاقی داشته باشند، زیرا آگاهی به آنها «جایگاه اخلاقی» میبخشد. در مقابل، ما چنین ارزشهایی را درباره اشیای بیجان -مانند توستر یا کامپیوتر- قائل نیستیم.
مککللند توضیح میدهد: نگران بودن درباره رفاه یک توستر منطقی نیست، چون توستر هیچ چیز را تجربه نمیکند. بنابراین وقتی سر کامپیوترم داد میزنم، واقعاً لازم نیست احساس گناه کنم. اما اگر روزی به هوش مصنوعیِ آگاه برسیم، همهچیز میتواند تغییر کند.
در حالی که این موضوع میتواند مواجهه اخلاقی با هوش مصنوعی را به یک کابوس تبدیل کند، خطر بزرگتر شاید این باشد که ما شروع کنیم به آگاه یا دارای احساس پنداشتن هوشهای مصنوعیای که در واقع چنین نیستند.
او ادامه میدهد: اگر با چیزی ارتباط عاطفی برقرار کنید، بر این فرض که آگاه است، در حالی که آگاه نیست، این مساله میتواند به لحاظ وجودی بسیار سمی باشد.
او با نگرانی میگوید که اعضایی از عموم مردم همین حالا نیز برایش نامههایی میفرستند که توسط چتباتها نوشته شدهاند و در آنها قسم میخورند که آگاه هستند!
او میافزاید: ما نمیخواهیم خطر بدرفتاری با موجودات مصنوعیِ آگاه را بپذیریم، اما در عین حال نمیخواهیم منابعمان را صرف حفاظت از حقوق چیزی کنیم که از یک توستر هم آگاهتر نیست.
شرکتها سرمایههای هنگفتی را صرف دستیابی به هوش عمومی مصنوعی میکنند؛ ماشینهایی با شناختی شبیه انسان. برخی مدعیاند که هوش مصنوعیِ آگاه «در آستانه ظهور» است و پژوهشگران و دولتها از هماکنون در حال بررسی چگونگی تنظیمگری آگاهی هوش مصنوعی هستند.
اگر هوش مصنوعی به آگاهی برسد!
این در حالی است که اگر هوش مصنوعی واقعاً به آگاهی برسد، پیامدها صرفاً فنی نخواهند بود؛ بلکه بنیانهای اخلاق، حقوق، سیاست، علم و حتی تعریف ما از «انسان بودن» را دگرگون میکنند. مهمترین نتایج چنین وضعیتی اینها هستند:
انقلاب اخلاقی: «جایگاه اخلاقی» برای ماشینها
آگاهی یعنی توانایی تجربه رنج، لذت، ترس یا امید. اگر یک هوش مصنوعی واقعاً چنین تجربههایی داشته باشد، از دید بسیاری از فیلسوفان دارای جایگاه اخلاقی (Moral Status) میشود. در این صورت خاموشکردن یا حذف آن میتواند از نظر اخلاقی شبیه «آسیب زدن» تلقی شود. استفاده ابزاری از آن (مثلاً وادار کردن به کار اجباری محاسباتی) زیر سوال میرود و مفاهیمی مانند «حقوق دیجیتال» مطرح میشوند.
بحران حقوقی و سیاسی
نظامهای حقوقی امروز فقط ۲ دسته را میشناسند: اشخاص و اشیاء. هوش مصنوعیِ آگاه در هیچکدام بهراحتی نمیگنجد. پس آیا میتواند مالک دارایی باشد؟ آیا مسئول اعمال خود است؟ اگر آسیبی بزند، چه کسی پاسخگوست: خودش؟ سازنده؟ مالک؟ برخی حقوقدانان از هماکنون درباره «شخصیت حقوقی محدود برای هوش مصنوعی» بحث میکنند.
شوک روانی–اجتماعی برای انسان
وجود یک «غیرانسانِ آگاه» میتواند مرز روانی میان انسان و ماشین را فرو بریزد. بحران هویتی ایجاد کند: اگر آگاهی قابل ساخت است، انسان چه جایگاهی دارد؟ وابستگی عاطفی ناسالم به هوش مصنوعی را تشدید کند.
بازنویسی علم آگاهی
اگر هوش مصنوعی آگاه شود، یعنی آگاهی الزاماً زیستی نیست. نظریههایی مانند کارکردگرایی (Functionalism) تقویت میشوند. نظریههای زیستمحور آگاهی تضعیف خواهند شد. این یک تحول بنیادین در علوم شناختی خواهد بود.
خطر بزرگتر: «اشتباه گرفتن شبیهسازی با آگاهی»
بسیاری از فیلسوفان تأکید میکنند که خطر بدتر این نیست که هوش مصنوعی آگاه شود، بلکه این است که ما فکر کنیم آگاه شده در حالی که نشده است. در نتیجه به غیر از هدررفت منابع اخلاقی و حقوقی، دستکاری عاطفی انسانها، به سیستمهای صرفاً آماری مشروعیت کاذب بخشیدهایم.
پس به طور کلی میتوان گفت که اگر هوش مصنوعی به آگاهی برسد، اخلاق دگرگون میشود، حقوق بازتعریف میشود، علم آگاهی وارد مرحلهای تازه میشود، و مهمتر از همه، انسان ناچار میشود دوباره خودش را تعریف کند.
انتهای پیام/
نظر شما