ظهور ماشین‌های خودآگاه؛ فرصت یا تهدید؟

خودآگاهی در یک ربات چگونه به وجود می‌آید؟ آیا چنین ربات‌هایی می‌توانند تهدیدی برای زندگی ما باشند؟

زامبی‌ها و آدم‌های فضایی تهدیدی واقعی برای گونه‌ی ما نیستند. در واقع فقط یکی از کاراکترهای شرور فیلم‌های سینمایی است که حضورش در دنیای واقعی ما را نگران می‌کند: ربات‌ آگاه. مشخص نیست چه زمانی پای آن‌ها به زندگی ما بازخواهد شد. اما بیایید لحظه‌ای به آن‌ها فکر کنیم. دنیا با وجود آن‌ها به چه شکل خواهد بود؟ بگذارید سؤالی اساسی‌تر مطرح کنم. جای ما در چنین جهانی کجا خواهد بود؟ آیا اساسا جایی برای ما باقی خواهد ماند؟

اخیرا پژوهش‌های هوش مصنوعی انقلابی جدید را پشت سر گذارده‌اند. در حال حاضر سیستم‌های مبتنی بر هوش مصنوعی در بازی‌هایی مانند شطرنج و گو، بهتر از انسان‌ها عمل می‌کنند، می‌توانند چهره‌ها را تشخیص دهند و رانندگی امنی انجام دهند. بااین‌حال، بیشتر پژوهشگران می‌گویند که ماشین‌های آگاه، ماشین‌هایی که فقط برنامه‌های نوشته‌شده را اجرا نمی‌کنند؛ بلکه احساس دارند و خودآگاه هستند، دهه‌ها با واقعیت یافتن فاصله دارند. آن‌ها که چنین عقیده‌ای دارند، این‌گونه استدلال می‌کنند که پژوهشگران باید هوشی عمومی، ماشینی با همه‌ی توانایی‌های ذکرشده در بالا و قابلیت یادگیری بسازند. در اینجا خواهد بود که هوش مصنوعی به سطحی از پیچیدگی که برای آگاهی نیاز است، خواهد رسید.

واضح است که افرادی مخالف این استدلال هستند. جاستین هارت، دانشمند رایانه در دانشگاه تگزاس، می‌گوید:

مردم بر این باورند که خودآگاهی نقطه‌ی پایان پژوهش‌های هوش مصنوعی است و زمانی رخ خواهد داد که دیگر هیچ پروژه‌ی علمی دیگری باقی نمانده باشد.

او و دیگر پژوهشگران در حال ساخت ماشین‌هایی با ذهن‌های اولیه هستند. یکی از ربات‌های آن‌ها مانند بچه‌ای تازه متولدشده، تقلا می‌کند تا بدنش را درک کند. یکی دیگر از ربات‌ها در مورد چیزهایی که می‌بیند، لغات نامفهوم به زبان می‌آورد و اگر او را بزنید گریه می‌کند. یکی دیگر از این ربات‌ها به‌گونه‌ای تنظیم شده است که جهانی مختص خودش را کشف کند.

هیچ کس ادعا نمی‌کند که ربات‌ها تجربه‌ی درونی غنی‌ دارند. آن‌ها از طبقاتی که جارو کرده‌اند احساس غرور نمی‌کنند یا جریان ۱۲۰ ولت به آن‌ها احساس لذت نمی‌دهد. اما اکنون ربات‌ها می‌توانند برخی کیفیت‌های مشابه مغز انسان، مانند همدلی، انطباق‌پذیری و تفکر را از خود نشان دهند.

پژوهشگران این مخلوقات سایبری را از این جهت طراحی می‌کنند که نقص‌های سیستم‌های مبتنی بر یادگیری ماشین را تصحیح کنند. این سیستم‌ها قدرتمند اما مبهم هستند. مبنای کار آن‌ها، ارتباط دادن ورودی به خروجی است؛ درست مانند آزمون‌هایی که در آن گزینه‌های موجود در ستون آ را به گزینه‌های مناسب آن‌ها در ستون ب متصل می‌کنید. اساسا سیستم‌های هوش مصنوعی این ارتباط‌ها را در حافظه‌ی خود ذخیره می‌کنند. هیچ منطق عمیق‌تری در پس پاسخ‌های آن‌ها وجود ندارد و مشکل دقیقا همین‌جا است.

از سوی دیگر، خواندن ذهن انسان‌ها و پیش‌بینی آن‌ها دشوار است. ما زمان قابل توجهی را صرف تحلیل خودمان و دیگران می‌کنیم؛ امری که نقش اصلی ذهن خودآگاه ما محسوب می‌شود. اگر ماشین‌ها ذهن داشته باشند، نفوذناپذیر نخواهند بود. ما می‌توانیم به‌سادگی از آن‌ها دلیل انجام کارهایشان را بپرسیم.

سلمر برینگجرد، پژوهشگر هوش مصنوعی در انستیتوی پلی‌تکنیک رنسلیر در تروی-نیویورک، می‌گوید:

اگر می‌توانستیم به بخشی از ساختار خودآگاهی دست پیدا کنیم، ظرفیت‌های بسیار خوبی تولید می‌شد.

داستان‌های علمی تخیلی ما را از ربات‌هایی که می‌توانند حس کنند، ترسانده‌اند. اما شاید این ربات‌های بدون ذهن هستند که باید از آن‌ها هراسان باشیم؛ شاید ربات‌های خودآگاه متحدان ما باشند.

Ai

نمایشگاه جهانی رباتیک، مادرید ۲۰۱۶. کودکان در حال برقراری ارتباط با پپر (ربات انسان‌نما) هستند که توسط آلداباران رباتیک (شرکت رباتیک فرانسوی) توسعه داده شده است.

ربات‌ها در جستجوی خودشناسی

امروزه، خودرو‌های خودران به پیشرفته‌ترین سیستم‌های هوش مصنوعی مجهز هستند. آن‌ها با توجه به دیتای رادار و لیزر و وارد کردن آن‌ها در الگوریتم‌ها، تصمیم می‌گیرند چه هنگام ترمز کنند و چه هنگام جهت حرکت خود را عوض کنند. اما رانندگی بیشتر به تشخیص حرکات دیگر راننده‌ها و واکنش دفاعی به آن‌ها مربوط است؛ عملکردهایی که به آگاهی ربط دارند.

پل ورشور، عصب‌شناس دانشگاه بارسلونا، می‌گوید:

خودرو‌های خودران باید ذهن دیگر خودروهای خودران را بخوانند تا بفهمند آن‌ها چه می‌خواهند کنند.

هاد لیپسون، استاد دانشگاه کلمبیا و یونگ جونگ کیم، در دانشگاه سجونگ سئول، رباتی ساخته‌اند که یک راننده‌ی بی‌ملاحظه است. این ربات دایره‌ای کوچک، در مسیری دایره‌ای با منطق خودش حرکت می‌کند. ربات دوم به‌گونه‌ای تنظیم می‌شود که بتواند مسیر حرکت ربات اول را بدون توجه به نقطه‌ی شروع آن رهگیری کند؛ بنابراین ربات دوم نمی‌تواند یک مسیر ثابت را ثبت کند. ربات دوم باید منطق حرکتی ربات اول را بفهمد. لیپسون و کیم با استفاده از روندی مشابه تکامل داروینی، یک استراتژی رهگیری ایجاد کردند. لیپسون می‌گوید:

این استراتژی بدلی از یک ذهن کنشگر بود. گرچه کامل نیست؛ اما آن‌قدر خوب هست که بتواند حرکت‌های بعدی ربات اول را پیش‌بینی کند.

تیم لیپسون یک ربات دیگر هم ساخته است که می‌تواند به درکی از بدن خود برسد. این ماشین عنکبوتی چهارپا ابعاد یک تارانتولا را دارد. وقتی این ربات روشن می‌شود، کامپیوتر درونی او هیچ اطلاعاتی در مورد بدنش ندارد. لیپسون می‌گوید:

این ماشین نمی‌داند که موتورهایش چه ترتیبی دارند یا بدنش به چه شکل است.

 

*فناوری اطلاعات آریونت : طراحی و تولید انواع لاین ترمینال های فیبرنوری در کشور*

 

اما این ربات می‌تواند یاد بگیرد. این ربات هر قسمت از بدنه‌اش را که بتواند حرکت می‌دهد تا ببیند چه اتفاقی می‌افتد. برای مثال، یاد می‌گیرد که چگونه روشن کردن یک موتور، مفصل یک پا را خم می‌کند. لیپسون می‌گوید این ربات موتورهایش را به‌صورت تصادفی روشن می‌کند.

چهار روز خسته‌کننده می‌گذرد و سرانجام ربات می‌فهمد که چهار پا دارد و سپس کشف می‌کند که چگونه آن‌ها را مکان‌یابی کند و حرکت دهد تا از یک طرف اتاق به سمت دیگر برود. لیپسون یکی از موتورها را جدا می‌کند. ربات متوجه می‌شود که اکنون فقط سه پا دارد و کنش‌های او منجر به نتیجه‌ی مورد انتظارش نمی‌شود. لیپسون می‌گوید:

به نحوی این ربات در مراحل بسیار ابتدایی خودآگاهی قرار دارد.

شاید این ربات‌های بدون ذهن هستند که باید از آن‌ها هراسان باشیم؛ شاید ربات‌های خودآگاه متحدان ما باشند

دیگر قابلیت انسان‌مانندی که پژوهشگران مایل هستند در هوش مصنوعی قرار دهند، ابتکار است. ماشین‌ها در بازی گو استاد هستند؛ زیرا انسان‌ها آن‌ها را برای حل معماها هدایت کرده‌اند. تعریف کردن صورت مسئله، سخت‌ترین قسمت حل آن است و ربات‌ها از انجام این کار ناتوان هستند.

ریوتا کانای، عصب‌شناس و بنیان‌گذار استارت‌آپ آرایا در توکیو، در مقاله‌ای در ژورنال Trends in Cognitive Science، ایجاد انگیزه‌های ذاتی در ربات‌ها را بررسی کرده است. او و همکارانش، راننده‌هایی را شبیه‌سازی کردند که در محیطی مجازی رانندگی می‌کنند. خودروی آن‌ها به تپه‌ای با شیب زیاد می‌رسد که بالا رفتن از آن تنها در صورتی ممکن است که خودرو هل داده شود. تا زمانی که به راننده‌ها فرمان داده نشود که راهی برای بالا رفتن از تپه پیدا کنند، آن‌ها ساکن در جای خود باقی می‌مانند.

تیم کانای این راننده‌ها را با عامل کنجکاوی برنامه‌ریزی می‌کنند. آن‌ها محیط را بررسی کردند، تپه را به‌عنوان یک مشکل تشخیص دادند و فهمیدند که حتی بدون دریافت دستورالعمل، چگونه از آن بالا بروند. کانای می‌گوید:

ما به راننده‌ها هدف ندادیم. آن‌ها محیط اطراف خود را بررسی می‌کنند و با پیش‌بینی نتایج کنش خودشان، موقعیت را ارزیابی می‌کنند.

در واقع به ربات‌ها به‌اندازه‌ای انگیزه ذاتی داده شد که مسائل را بهتر حل کنند؛ نه آن‌قدر که تصمیم بگیرند از آزمایش خارج شوند. ماشین‌ها می‌توانند به‌اندازه‌ی انسان‌ها لجوج باشند. جاشوا باخ، پژوهشگر هوش مصنوعی هاروارد، ربات‌های مجازی را در محیطی مجازی پر از قارچ‌های خوشمزه اما سمی قرار داد. او انتظار داشت آن‌ها یاد بگیرند که از آن قارچ‌ها دوری کنند؛ اما ربات‌ها مدام در حال خوردن آن قارچ‌های سمی بودند. باخ می‌گوید:

همان‌طور که انسان‌ها تجربه‌هایشان را دست کم می‌گیرند، ربات‌ها هم همین‌گونه بودند؛ آن‌ها اصلا توجه نمی‌کردند. قارچ‌ها خیلی خوشمزه بودند و ربات‌ها فقط به همین توجه می‌کردند.

باخ مجبور شد حس نفرت از قارچ‌ها را به ربات‌ها القا کند. به عبارت دیگر، ربات‌ها باید ارزش‌ها را یاد بگیرند و نه‌فقط هدف‌ها را.

توجه کردن

علاوه بر خودآگاهی و خودانگیزشی، دیگر عملکرد کلیدی آگاهی، توانایی تمرکز است. اخیرا «توجه انتخابی» به زمینه‌ای مهم در پژوهش‌های هوش مصنوعی تبدیل شده است. گوگل دیپ‌مایند که کامپیوتر بازیکن گو را توسعه داده است، تنها شرکتی نیست که به این مهم می‌پردازد.

ai

استنلی فرانکلین، استاد علوم کامپیوتر در دانشگاه ممفیس، می‌گوید:

آگاهی از فیلترهای توجه است.

فرانکلین و همکارانش سال گذشته مقاله‌ای در Biology Inspired Cognitive Architectures منتشر کردند. آن‌ها در این مقاله، پروسه ساخت سیستم هوش مصنوعی‌ای به نام لیدا را بررسی کردند. لیدا می‌تواند تصمیم بگیرد که در طول یک پروسه‌ی رقابت بر چه چیزهایی تمرکز کند. عصب‌شناسی به نام برنارد بارز در دهه‌ی ۸۰ میلادی، چنین پروسه ساختی را پیشنهاد کرده بود. این فرایند محرک‌های جالبی مانند بلندی صدا، روشنایی یا موارد خارجی را شناسایی می‌کند و سپس برای برنده شدن مبارزه می‌کند. وقتی این فرایند غالب می‌شود، مشخص می‌کند چه زمانی قدرت ذهنی ضعف دارد و طیف وسیعی از عملکردهای مغز، شامل مشورت و حرکت را آگاه می‌کند. چرخه‌ی ادراک، توجه و اقدام پنج تا ده بار در ثانیه تکرار می‌شود.

نخستین نسخه‌ی لیدا، یک سرور شغل‌یاب برای نیروی دریایی آمریکا بود. او ایمیل‌ها را می‌خواند، بر اطلاعات مربوطه تمرکز می‌کرد و درعین‌حال علاقه‌مندی‌های هر جویای کار، فراهم بودن فرصت شغلی و الزامات بوروکراسی دولتی را هم در نظر می‌گرفت.

از آن زمان تاکنون، تیم فرانکلین از این سیستم برای مدل‌سازی ذهن حیوانات، به‌ویژه تغییرات رفتاری ناشی از تمرکز فقط بر یک چیز، استفاده کرده است. به‌عنوان مثال، لیدا درست مانند انسان‌ها پدیده‌ای روان‌شناختی به اسم «غفلت عمدی» را نشان می‌دهد. وقتی چیزی توجه شما را جلب می‌کند، شما برای نیمی از ثانیه، نسبت به هر چیز دیگری بی‌توجه می‌شوید. این نقطه کور شناختی، به عوامل متعددی بستگی دارد و لیدا به همان عوامل، واکنشی انسانی نشان می‌دهد.

پنتی‌ هایکونن، پژوهشگر فنلاندی هوش مصنوعی، با اصول مشابه رباتی به نام XCR-1 ساخته است.‌هایکونن، برخلاف دیگر پژوهشگران که در مورد ساخته‌های خود ادعاهای ساده‌ای مانند دستیابی به درجاتی از آگاهی دارند، ادعا می‌کند که ساخته‌ی او تجربه واقعی ذهنی و احساسات اصلی را دارد.

هایکونن ارتعاش را به‌عنوان درد برای ربات تعریف می‌کند. این حس، تمامی ورودی‌های حسی دیگر را متوقف و تمام توجه ربات را به خود جلب می‌کند.

سیستم یاد می‌گیرد ارتباطاتی مانند نورون‌ها در مغز ما ایجاد کند. اگر ‌هایکونن به ربات یک توپ «سبز» نشان دهد و کلمه‌ی «سبز» را بگوید، ماژول شنوایی و بینایی پاسخ می‌دهند و ارتباط برقرار می‌کنند. اگر ‌هایکونن فقط کلمه‌ی «سبز» را بگوید، ماژول شنوایی پاسخ خواهد داد و بر اساس ارتباطی که قبلا ایجاد شد، ماژول بینایی هم پاسخ خواهد داد. ربات تا زمانی که کلمه را بشنود یا رنگ را ببیند، به این روند ادامه خواهد داد، حتی اگر به دوری باطل بیانجامد.

عکس این حالت هم صادق است؛ اگر ربات رنگ «سبز» را ببیند، حتی اگر نام «سبز» گفته نشود، ماژول شنوایی پاسخ خواهد داد. اگر بخواهم خلاصه‌تر بگویم، در واقع ربات گونه‌ای سینستزیا در خود توسعه داده است. سینستزیا به این معنی است که وقتی یکی از حواس شما فعال می‌شود، یک حس نامربوط دیگر هم‌زمان و متأثر از آن فعال می‌شود.

هایکونن می‌گوید:

اگر ما یک توپ را ببینیم، ممکن است دیدن توپ را به خود بگوییم. در آن زمان ادراک ما به‌گونه‌ای است که انگار واقعا آن کلمه را شنیده‌ایم. این اتفاقی است که برای XCR-1 می‌افتد.

حال در نظر بگیرید که ماژول‌ها با نوعی تناقض روبرو شوند. شرایط جالبی پیش خواهد آمد. برای مثال، ماژول بینایی رنگ «سبز» را می‌بیند؛ اما آنچه ماژول شنوایی می‌شنود، کلمه «آبی» است. اگر ماژول شنوایی غالب باشد، سیستم به‌عنوان یک کلیت، تمام توجه خود را به آنچه می‌شنود، متمرکز می‌کند و رنگی را که می‌بیند، نادیده می‌انگارد. ربات جریانی بسیار ساده از خودآگاهی دارد که از ادراکی ایجاد شده است که لحظه‌به‌لحظه بر آن مستولی می‌شود: سبز، توپ، آبی و … وقتی ‌هایکونن ماژول شنوایی را به یک موتور گفتاری متصل می‌کند، ربات در مورد هرچه می‌بیند و احساس می‌کند، مونولوگی بدون توقف ایراد می‌کند.

هایکونن ارتعاش را به‌عنوان درد برای ربات تعریف می‌کند. این حس، تمامی ورودی‌های حسی دیگر را متوقف کرده و تمام توجه ربات را به خود جلب می‌کند. یک بار ‌هایکونن به ربات ضربه زد؛ ربات گفت: «من صدمه دید.»

هایکونن می‌گوید:

برخی از مردم به دلایلی با دیدن چنین موردی، احساس ناراحتی می‌کنند.

او و برخی دیگر از پژوهشگران به آفریده‌های خود حسی ندارند. مثلا ورشور بیان می‌گوید: «من هرگز چنین آدمی نیستم که رباتی را ببینم و بگویم آخی! ربات بیچاره!»

گونه‌ای جدید

پژوهشگران بر اساس تلاش‌های اولیه‌ی خود، ربات‌هایی شبیه‌تر به موجودات زنده می‌سازند. در طبیعت سیستم‌های هوشیار بی‌شماری از جانداران تک‌سلولی و سگ گرفته تا شامپانزه و انسان وجود دارد. پیشرفت تدریجی این فناوری خوب است؛ زیرا به ما زمان می‌دهد تا به این ایده که روزی، دیگر تنها موجودات پیشرفته روی کره‌ی زمین نخواهیم بود، خو بگیریم.

ai

برای مدت‌زمانی طولانی، همراهان مصنوعی ما آسیب‌پذیر خواهند بود. در واقع آن‌ها بیشتر شبیه حیوانات دست‌آموز ما هستند تا اینکه تهدیدی برای ما باشند. نحوه‌ی رفتار ما با آن‌ها به این امر وابسته خواهد بود که آیا آن‌ها را موجوداتی آگاه می‌دانیم که می‌توانند رنج بکشند یا خیر.

سوزان اشنایدر، فیلسوفی در دانشگاه کانتیکت است که پیامدهای هوش مصنوعی را بررسی می‌کند. او می‌گوید:

ما به حیوانات خیلی بها می‌دهیم، گاهی به همان اندازه که به انسان‌ها بها می‌دهیم؛ زیرا بر اساس آگاهی خود می‌دانیم که حیوانات هم آگاهی دارند.

در واقع او معتقد است که ما عمدا از ساخت ماشین‌های آگاه خودداری می‌کنیم تا از معضلات اخلاقی که پیش می‌آورد، جلوگیری کنیم.

اشنایدر می‌گوید:

اگر ما ماشین‌هایی آگاه بسازیم و سپس آن‌ها را مجبور کنیم برای ما کار کنند؛ این کار چیزی جز برده‌داری نیست. به همین ترتیب، اگر به ربات‌های پیشرفته، ادراک ندهیم، تهدید احتمالی آن‌ها برای بشریت بدتر خواهد شد؛ چرا که آن‌ها هیچ دلیل خاصی نمی‌یابند تا ما را شناسایی کنند و برای ما ارزش قائل شوند.

این ماشین‌ها، قابلیت حل مسئله‌ی ما را به بسیار گسترش خواهند داد؛ اما هر چیزی یک مسئله‌ی حل کردنی نیست. تنها واکنشی که ربات‌ها می‌توانند به تجربه‌ی آگاهانه داشته باشند، لذت بردن از آن است. آن‌ها با محدوده گسترده‌تری از ادراک حسی، چیزهایی را خواهند دید که مردم باور نمی‌کنند. لیپسون می‌گوید:

من فکر نمی‌کنم گونه‌های رباتی آینده، بی‌روح و سرد باشند؛ آن‌ها احتمالا موسیقی و شعر خواهند داشت که ما هرگز درک نخواهیم کرد.

 

برگرفته از سایت زومیت : نویسنده: سارا احمدی

  نظرات