هوش مصنوعی (AI) طراحی کنید که مفید باشد، نه اینکه صرفا باهوش باشد. این پاسخ همهی مشکلات انسانی درباره آینده هوش مصنوعی فوق بشری است. استوارت راسل نویسنده کتاب “همسو با انسان: هوش مصنوعی و مشکل کنترل” و استاد علوم کامپیوتر در دانشگاه برکلی کالیفرنیا است. او با توجه به دستاوردهای اخیر و شگرف محققان هوش مصنوعی در ساخت ماشینی فوق هوشمند، دو راهکار پیش پای محققان قرار میدهد و بر این باور است که باید استانداردهای مسیر رسیدن به هوش مصنوعی را تغییر داد زیرا در غیر این صورت، بشریت با مشکلی بزرگ روبرو خواهد شد. در ادامه با آراد مگ همراه باشید.
هوش مصنوعی مفید، نه فقط هوشمند
ظهور ماشین هوشمند فوق بشری بزرگترین رویداد در تاریخ بشر خواهد بود. قدرتهای بزرگ دنیا بالاخره از خواب بیدار میشوند و بزرگترین شرکتهای جهان برای مدتی کوتاه است که با آن آشنا شدهاند. اما چیزی که آنها ممکن است به طور کامل درک نکنند این است که تکامل هوش مصنوعی (AI) چگونه میتواند تعیین کند که آیا این رویداد آخرین رویدادی خواهد بود که تجربهاش میکنیم یا نه.
مشکل داستانِ هوش مصنوعی علمی – تخیلی بودن آن نیست، همانطور که از گذشته تاکنون هالیوود و رسانههای جمعی را در بر گرفته است – در واقع، ربات انساننما که به خودی خود به آگاهی میرسد و تصمیم میگیرد از انسانها متنفر شود. بلکه، ایجاد ماشینهایی است که میتوانند اطلاعات بیشتری داشته باشند و آینده را بیشتر از آن چیزی ببینند که انسانها مینگرند و حتی از ظرفیت خود برای تصمیمگیری در دنیای واقعی پا را فراتر از تصور ما بگذارند.
برای درک این که چگونه و چرا این مساله میتواند منجر به مشکلات وحشتناکی شود، ابتدا باید به ساختارهای اولیه و اصلی بیشتر سیستمهای هوش مصنوعی برگردیم. “مدل استاندارد” در هوش مصنوعی (AI) که برگرفته از مفاهیم فلسفی و اقتصادی رفتار عقلانی است، اینطور به نظر میرسد که: ” ماشینها تا حدی هوشمند هستند که اقدامات آنها را می توان برای رسیدن به اهدافشان پیشبینی کرد.”
از آنجا که ماشینها، برخلاف انسانها، هیچ هدفی برای خود ندارند، در این پروسه، ما به هوش مصنوعی اهدافی برای دستیابی به آنها میدهیم. به بیان دیگر، ما ماشینها را میسازیم، به آنها هدف یا هدفهای میدهیم و سپس از آنها دور میشویم. هر چه این ماشین باهوشتر باشد، به احتمال زیاد مسیر رسیدن به هدفاش هموارتر خواهد شد.
نه تنها در هوش مصنوعی (AI) بلکه این مدل در سراسر جامعه مورد استفاده قرار میگیرد و خود را تکرار میکند، همچون این که، مهندسان کنترل رباتهای خلبانی را طراحی میکنند تا انحرافات ناشی از سطح پروازی را به حداقل رسانند؛ تحلیلگران آماری الگوریتمهایی را طراحی میکنند تا خطاهای پیشبینی شده را کاهش دهند؛ خرده فروشان مکانهایی را انتخاب میکنند تا بازدهی سود سهام را به حداکثر برسانند؛ و دولتها گزینههای سیاستگذاری را برای تسریع رشد تولید ناخالص داخلی انتخاب میکنند.
متاسفانه، این مدل استاندارد اشتباهی بیش نیست. منطقی نیست ماشینهایی را طراحی کنیم که در صورتی برای ما مفید هستند که اهداف خود را به طور کامل و درست برای آنها تعریف کنیم، زیرا اگر هدف اشتباهی را در سیستم هوش مصنوعی کد نویسی کنیم و او باهوشتر از ما باشد، بازنده ما خواهیم شد.
تا همین اواخر، ما از عواقب سنگین بالقوهی هوش مصنوعی طفره میرفتیم زیرا به شکلی ضعیف و برای اموری نه چندان هوشمندانه طراحی شده بودند، فقط به این دلیل که فنآوری هوش مصنوعی ما به طور خاص هوشمندانه نبود و بیشتر به استفاده در آزمایشگاه محدود میشد. با این حال، حتی الگوریتم های یادگیری نسبتا ساده برای رسانههای اجتماعی که با دستکاری اولویتهای انسانی آنها را بهینه میکنند برای سیستمهای دموکراتیک هم مصیبتبار بودهاند، زیرا در دنیای واقعی بسیار فراگیر شدهاند.
اثرات الگوریتمی فوق هوشمند که در مقیاس جهانی عمل میکند میتواند بسیار شدیدتر باشد. چه اتفاقی خواهد افتاد اگر یک سیستم کنترل آب و هوای فوق هوشمند، با توجه به جذب غلظت دیاکسید کربن و برگرداندن آن به پیش از دوران صنعتی شدن، معتقد باشد که راه حل کاهش دیاکسید کربن، رساندن جمعیت انسانی به صفر است؟
بعضی از محققان هوش مصنوعی میخواهند ادعا کنند که “ما همیشه میتوانیم هر موقع که بخواهیم آنها را خاموش کنیم” – اما این چیزی بیشتر از این نیست که استدلال کنیم که ما همیشه میتوانیم حرکات بهتری از بازیکن فوق بشری شطرنج یا برنامه Go را که با آن مواجه هستیم انجام دهیم. AI همهی راههایی را که در آن ممکن است انسان دخالت کند پیشبینی میکند و از اقدامات پیشگیرانه برای جلوگیری از رخداد استفاده میکند.
پس راه حل در تغییر تفکر ما نسبت به روشی است که برای هوش مصنوعی در نظر گرفتهایم. به جای ساختن ماشینهایی که فقط برای رسیدن به اهدافشان موجودیت پیدا میکنند، مدلی را میخواهیم که شبیه این باشد: ” ماشینها تا حدی مفید هستند که از اقدامات آنها برای رسیدن به اهداف ما انتظار میرود و نه بیشتر.”
این ثبات ممکن است کوچک به نظر آید، اما بسیار مهم و موثر است. ماشینهایی (AI) که اهداف ما را به عنوان تنها اصل راهبردی خود دارند و ضرورتا چیستی این اهداف هم باید برایشان نامشخص باشد، زیرا آنها نزدیک به ما هستند – نزدیکِ همهی هشت میلیارد انسان هستند، با همهی تنوعهای شکوهمند انسانی و برای نسلهایی که هنوز به دنیا نیامدهاند- نه در قالب ماشینهایی هوشمند.
AI فوق بشری
نبود اطمینان در مورد اهداف ممکن است معکوس و زیانآور به نظر رسد، اما در واقع ویژگی ضروری در رابطه با سیستمهای هوشمند ایمن است. این به این معنی است که مهم نیست تا چه اندازه هوش مصنوعی باهوش باشد، ماشینها همیشه به انسانها متوسل خواهند بود. در زمان مناسب کنارهگیری میکنند، به روز رسانی و اصلاح را قبول خواهند کرد و مهمتر از همه، به خودشان این امکان را میدهند که خاموش شوند – دقیقا به این دلیل است که میخواهند از انجام هر کاری که به انسانها دلیلی برای خاموشکردن آنها میدهد دوری کنند و ما باید دلیلی برای خاموش کردن آنها داشته باشم.
زمانی که تمرکز از ماشینهایی که “هوشمند” هستند برداشته و به سوی آنهایی که “مفید” هستند، معطوف میشود، کنترل آنها به مراتب سادهتر خواهد شد. تفاوت بین انرژی هستهای و انفجارهای هستهای را در نظر بگیرید: انفجار هستهای، انرژی هستهای به شکلی کنترل نشده است و ما به شدت شکل کنترل شدهاش را ترجیح میدهیم.
البته، قرار دادن مدلی مثل این در عمل نیاز به تحقیقات زیادی دارد. ما نیاز به الگوریتم هایی “با کمترین روشهای تهاجمی” برای تصمیمگیری داریم که از درگیر شدن ماشینها با بخشهایی از جهان که درباره ارزش آنها نامطمئن هستیم، و همچنین ماشینهایی که قدرت یادگیری درباره اولویتهای اصلی و اساسی ما برای چگونگی آشکار شدن آینده اطلاعات را دارند، جلوگیری کنیم. سپس چنین ماشینهایی با مشکلی قدیمی در فلسفه اخلاقی رو به رو خواهند شد: نحوه توزیع مزایا و هزینهها در میان افراد مختلف با تمایلات متضاد چگونه است.
تمام این موارد ممکن است یک دهه طول بکشد – و حتی پس از آن، مقرراتی باید به وجود آید که امنیت سیستمهای هوش مصنوعی را تضمین شده و قابل مشاهده کنند، در واقع آنهایی که چنین هستند به کار گرفته شوند و در غیر این صورت کنار گذاشته شوند. این پروسه آسان نخواهد بود. اما واضح است که این مدل از هوش مصنوعی باید قبل از اینکه توانایی سیستمهای AI بیش از توانایی انسانها شود، وجود داشته باشد تا فراتر از سیستمهای انسانی نشود.
اگر بتوانیم این کار را انجام دهیم، نتیجهی آن وجود رابطه جدید بین انسانها و هوش مصنوعی فوق بشری خواهد بود، چیزی که امیدوارم ما را قادر سازد تا چند دهه آینده را با موفقیت طی کنیم.
اگر شکست بخوریم، ممکن است با انتخابی مشکل مواجه شویم: کاهش تحقیقات هوش مصنوعی و صرفنظر از مزایای عظیمی که برای ما به همراه دارد، یا ریسک از دست دادن کنترل آیندهی خودمان.
برخی از افراد منتقد در جامعه هوش مصنوعی (AI) بر این باورند که گزینه سومی هم وجود دارد و آن این است که مثل همیشه به تجارت ادامه دهند، چون ماشینهای فوق هوشمند هرگز در این حوزه به گرد پای انسانها نمیرسند (از نام ماشین فوق هوشمند پیداست که میرسد یا نه!). اما این طوری که اینها میگویند شبیه رانندهی اتوبوسی است که همهی بشریت مسافرش هستند و میگوید: ” آره، من دارم با سرعت به طرف صخره رانندگی میکنم، اما بهم اعتماد کنید، قبل از رسیدن به صخره، بنزین ماشین تموم میشه! ترجیح میدهم در این باره ریسک نکنم.
پاسخ دهید