فناوریهوش مصنوعی

هوش مصنوعی

چگونه هوش مصنوعی ابَر انسانی را قبل از پایان دادن به نسل بشریت متوقف کنیم

هوش مصنوعی (AI) طراحی کنید که مفید باشد، نه اینکه صرفا باهوش باشد. این پاسخ همه‌ی مشکلات انسانی درباره آینده هوش مصنوعی فوق بشری است. استوارت راسل نویسنده کتاب “همسو با انسان: هوش مصنوعی و مشکل کنترل” و استاد علوم کامپیوتر در دانشگاه برکلی کالیفرنیا است. او با توجه به دستاوردهای اخیر و شگرف محققان هوش مصنوعی در ساخت ماشینی فوق هوشمند، دو راهکار پیش پای محققان قرار می‌دهد و بر این باور است که باید استانداردهای مسیر رسیدن به هوش مصنوعی را تغییر داد زیرا در غیر این صورت، بشریت با مشکلی بزرگ روبرو خواهد شد. در ادامه با آراد مگ همراه باشید.

هوش مصنوعی مفید، نه فقط هوشمند

ظهور ماشین هوشمند فوق بشری بزرگ‌ترین رویداد در تاریخ بشر خواهد بود. قدرت‌های بزرگ دنیا بالاخره از خواب بیدار می‌شوند و بزرگ‌ترین شرکت‌های جهان برای مدتی کوتاه است که با آن آشنا شده‌اند. اما چیزی که آن‌ها ممکن است به طور کامل درک نکنند این است که تکامل هوش مصنوعی (AI) چگونه می‌تواند تعیین کند که آیا این رویداد آخرین رویدادی خواهد بود که تجربه‌اش می‌کنیم یا نه.

مشکل داستانِ هوش مصنوعی علمی – تخیلی بودن آن نیست، همانطور که از گذشته تاکنون هالیوود و رسانه‌های جمعی را در بر گرفته است – در واقع، ربات انسان‌نما که به خودی خود به آگاهی می‌رسد و تصمیم می‌گیرد از انسان‌ها متنفر شود. بلکه، ایجاد ماشین‌هایی است که می‌توانند اطلاعات بیشتری داشته باشند و آینده را بیشتر از آن چیزی ببینند که انسان‌ها می‌نگرند و حتی از ظرفیت خود برای تصمیم‌گیری در دنیای واقعی پا را فراتر از تصور ما بگذارند.

برای درک این که چگونه و چرا این مساله می‌تواند منجر به مشکلات وحشتناکی شود، ابتدا باید به ساختارهای اولیه و اصلی بیشتر سیستم‌های هوش مصنوعی برگردیم. “مدل استاندارد” در هوش مصنوعی (AI) که برگرفته از مفاهیم فلسفی و اقتصادی رفتار عقلانی است، اینطور به نظر می‌رسد که: ” ماشین‌ها تا حدی هوشمند هستند که اقدامات آن‌ها را می توان برای رسیدن به اهداف‌شان پیش‌بینی کرد.”

از آنجا که ماشین‌ها، برخلاف انسان‌ها، هیچ هدفی برای خود ندارند، در این پروسه، ما به هوش مصنوعی اهدافی برای دست‌یابی به آن‌ها می‌دهیم. به بیان دیگر، ما ماشین‌ها را می‌سازیم، به آن‌ها هدف یا هدف‌های می‌دهیم و سپس از آن‌ها دور می‌شویم. هر چه این ماشین باهوش‌تر باشد، به احتمال زیاد مسیر رسیدن به هدف‌اش هموارتر خواهد شد.

نه تنها در هوش مصنوعی (AI) بلکه این مدل در سراسر جامعه مورد استفاده قرار می‌گیرد و خود را تکرار می‌کند، همچون این که، مهندسان کنترل ربات‌های خلبانی را طراحی می‌کنند تا انحرافات ناشی از سطح پروازی را به حداقل رسانند؛ تحلیلگران آماری الگوریتم‌هایی را طراحی می‌کنند تا خطاهای پیش‌بینی شده را کاهش دهند؛ خرده فروشان مکان‌هایی را انتخاب می‌کنند تا بازدهی سود سهام را به حداکثر برسانند؛ و دولت‌ها گزینه‌های سیاستگذاری را برای تسریع رشد تولید ناخالص داخلی انتخاب می‌کنند.

متاسفانه، این مدل استاندارد اشتباهی بیش نیست. منطقی نیست ماشین‌هایی را طراحی کنیم که در صورتی برای ما مفید هستند که اهداف خود را به طور کامل و درست برای آن‌ها تعریف کنیم، زیرا اگر هدف اشتباهی را در سیستم هوش مصنوعی کد نویسی کنیم و او باهوش‌تر از ما باشد، بازنده ما خواهیم شد.

تا همین اواخر، ما از عواقب سنگین بالقوه‌ی هوش مصنوعی طفره می‌رفتیم زیرا به شکلی ضعیف و برای اموری نه چندان هوشمندانه طراحی شده بودند، فقط به این دلیل که فن‌آوری هوش مصنوعی ما به طور خاص هوشمندانه نبود و بیشتر به استفاده در آزمایشگاه محدود می‌شد. با این حال، حتی الگوریتم های یادگیری نسبتا ساده برای رسانه‌های اجتماعی که با دستکاری اولویت‌های انسانی آن‌ها را بهینه می‌کنند برای سیستم‌های دموکراتیک هم مصیبت‌بار بوده‌اند، زیرا در دنیای واقعی بسیار فراگیر شده‌اند.

اثرات الگوریتمی فوق هوشمند که در مقیاس جهانی عمل می‌کند می‌تواند بسیار شدیدتر باشد. چه اتفاقی خواهد افتاد اگر یک سیستم کنترل آب و هوای فوق هوشمند، با توجه به جذب غلظت دی‌اکسید کربن و برگرداندن آن به پیش از دوران صنعتی شدن، معتقد باشد که راه ‌حل کاهش دی‌اکسید کربن، رساندن جمعیت انسانی به صفر است؟

بعضی از محققان هوش مصنوعی می‌خواهند ادعا کنند که “ما همیشه می‌توانیم هر موقع که بخواهیم آن‌ها را خاموش کنیم” – اما این چیزی بیشتر از این نیست که استدلال کنیم که ما همیشه می‌توانیم حرکات بهتری از بازیکن فوق بشری شطرنج یا برنامه Go را که با آن مواجه هستیم انجام دهیم. AI همه‌ی راه‌هایی را که در آن ممکن است انسان دخالت کند پیش‌بینی می‌کند و از اقدامات پیشگیرانه برای جلوگیری از رخداد استفاده می‌کند.

پس راه ‌حل در تغییر تفکر ما نسبت به روشی است که برای هوش مصنوعی در نظر گرفته‌ایم. به جای ساختن ماشین‌هایی که فقط برای رسیدن به اهدافشان موجودیت پیدا می‌کنند، مدلی را می‌خواهیم که شبیه این باشد: ” ماشین‌ها تا حدی مفید هستند که از اقدامات آن‌ها برای رسیدن به اهداف ما انتظار می‌رود و نه بیشتر.”

هوش مصنوعی فوق بشری - AI

این ثبات ممکن است کوچک به نظر آید، اما بسیار مهم و موثر است. ماشین‌هایی (AI) که اهداف ما را به عنوان تنها اصل راهبردی خود دارند و ضرورتا چیستی این اهداف هم باید برایشان نامشخص باشد، زیرا آن‌ها نزدیک به ما هستند –  نزدیکِ همه‌ی هشت میلیارد انسان هستند، با همه‌ی تنوع‌های شکوهمند انسانی و برای نسل‌هایی که هنوز به دنیا نیامده‌اند- نه در قالب ماشین‌هایی هوشمند.

AI فوق بشری

نبود اطمینان در مورد اهداف ممکن است معکوس و زیان‌آور به نظر رسد، اما در واقع ویژگی ضروری در رابطه با سیستم‌های هوشمند ایمن است. این به این معنی است که مهم نیست تا چه اندازه هوش مصنوعی باهوش باشد، ماشین‌ها همیشه به انسان‌ها متوسل خواهند بود. در زمان مناسب کناره‌گیری می‌کنند، به روز رسانی و اصلاح را قبول خواهند کرد و مهم‌تر از همه، به خودشان این امکان را می‌دهند که خاموش شوند – دقیقا به این دلیل است که می‌خواهند از انجام هر کاری که به انسان‌ها دلیلی برای خاموش‌کردن آن‌ها می‌دهد دوری کنند و ما باید دلیلی برای خاموش کردن آن‌ها داشته باشم.

زمانی که تمرکز از ماشین‌هایی که “هوشمند” هستند برداشته و به سوی آن‌هایی که “مفید” هستند، معطوف می‌شود، کنترل آن‌ها به مراتب ساده‌تر خواهد شد. تفاوت بین انرژی هسته‌ای و انفجارهای هسته‌ای را در نظر بگیرید: انفجار هسته‌ای، انرژی هسته‌ای به شکلی کنترل نشده است و ما به شدت شکل کنترل ‌شده‌اش را ترجیح می‌دهیم.

البته، قرار دادن مدلی مثل این در عمل نیاز به تحقیقات زیادی دارد. ما نیاز به الگوریتم هایی “با کم‌ترین روش‌های تهاجمی” برای تصمیم‌گیری داریم که از درگیر شدن ماشین‌ها با بخش‌هایی از جهان که درباره ارزش آن‌ها نامطمئن هستیم، و همچنین ماشین‌هایی که قدرت یادگیری درباره اولویت‌های اصلی و اساسی ما برای چگونگی آشکار شدن آینده اطلاعات را دارند، جلوگیری کنیم. سپس چنین ماشین‌هایی با مشکلی قدیمی در فلسفه اخلاقی رو به رو خواهند شد: نحوه توزیع مزایا و هزینه‌ها در میان افراد مختلف با تمایلات متضاد چگونه است.

هوش مصنوعی فوق بشری - AI

تمام این موارد ممکن است یک دهه طول بکشد – و حتی پس از آن، مقرراتی باید به وجود آید که امنیت سیستم‌های هوش مصنوعی را تضمین شده و قابل مشاهده کنند، در واقع آن‌هایی که چنین هستند به کار گرفته شوند و در غیر این صورت کنار گذاشته شوند. این پروسه آسان نخواهد بود. اما واضح است که این مدل از هوش مصنوعی باید قبل از اینکه توانایی سیستم‌های AI بیش از توانایی‌ انسان‌ها شود، وجود داشته باشد تا فراتر از سیستم‌های انسانی نشود.

اگر بتوانیم این کار را انجام دهیم، نتیجه‌ی آن وجود رابطه جدید بین انسان‌ها و هوش مصنوعی فوق بشری خواهد بود، چیزی که امیدوارم ما را قادر سازد تا چند دهه آینده را با موفقیت طی کنیم.

اگر شکست بخوریم، ممکن است با انتخابی مشکل مواجه شویم: کاهش تحقیقات هوش مصنوعی و صرف‌نظر از مزایای عظیمی که برای ما به همراه دارد، یا ریسک از دست دادن کنترل آینده‌ی خودمان.

برخی از افراد منتقد در جامعه هوش مصنوعی (AI) بر این باورند که گزینه سومی هم وجود دارد و آن این است که مثل همیشه به تجارت ادامه دهند، چون ماشین‌های فوق هوشمند هرگز در این حوزه به گرد پای انسان‌ها نمی‌رسند (از نام ماشین فوق هوشمند پیداست که می‌رسد یا نه!). اما این طوری که این‌ها می‌گویند شبیه راننده‌ی اتوبوسی است که همه‌ی بشریت مسافرش هستند و می‌گوید: ” آره، من دارم با سرعت به طرف صخره رانندگی می‌کنم، اما بهم اعتماد کنید، قبل از رسیدن به صخره، بنزین ماشین تموم می‌شه! ترجیح می‌دهم در این باره ریسک نکنم.

منبع
The New York Times
برچسب ها
نمایش بیشتر

شهین غمگسار

مترجم هستم. با واژه‌ها سروکار دارم. و گاهی می نویسم.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا
بستن
بستن