چگونه هوش مصنوعی زندگی ما را تغییر خواهد داد؟

هوش مصنوعی در حال بازی بازیی استراتژیک در قالب ذهن بالقوه است، نوشتن مقالات خبری، انبار کردن پروتئین‌ها و آموزش حرکات جدید استاد بزرگ در بازی Go. برخی متخصصان هشدار می‌دهند از آنجا که ما سیستم‌های خود را قدرتمندتر می‌کنیم در نتیجه، ممکن است با خطرات بی‌سابقه‌ای روبرو شویم. برخی نیز مدعی هستند که با آن روز موعود قرن‌ها فاصله داریم و پیش‌بینی‌ها در مورد خطرات هوش مصنوعی، امروزه روز کمی مسخره به نظر می‌رسند. بررسی‌های انجام شده نشان می‌دهند که مردم آمریکا در مورد دستگاه‌های کنترل خودکار، حریم خصوصی داده و “نقص سیستم‌های حیاتی هوش مصنوعی” نگران هستند زیرا فکر می‌کنند می‌تواند منجر به کشتن مردم شود. در دو کتاب جدید، ۴۵ متخصص هوش مصنوعی با چیزی بزرگ و احتمالا ترسناک دست و پنجه نرم می‌کنند. در ادامه با آراد مگ همراه باشید.

چگونه با موضوع هوش مصنوعی برخورد می‌کنید؟

در هفته گذشته، در زمینه هوش مصنوعی دو کتاب جدید منتشر شده است که هر دو کتاب رویکرد مشابهی دارند. ذهن‌های بالقوه، ویرایش شده از سوی جان بروکمن و منتشر شده از سوی انتشارات پنگوئن، در این کتاب از ۲۵ متفکر مهم – از جمله مکس تگ مارک، جان تالین، استیون پینکر، و استوارت راسل – درباره این مهم سوال شده است. هر کدام مقاله‌ای کوتاه درباره “روش‌های نگاه کردن” به هوش مصنوعی در این کتاب نوشته‌اند.

طراحان هوش مصنوعی در اطلاعات منتشر شده در نوامبر گذشته از سوی انتشارات Packt به ما قول داده‌اند که “حقیقت را در مورد هوش مصنوعی از طرف افرادی که آن را می‌سازند” به همراه ۲۲ گفتگو بین مارتین فورد و محققان طراز اول همچون موسس هوش گوگل، اندور اِن جی، یان لکان از فیس بوک و دمیس حسابیس از شرکت DeepMind به ما بگویند.

در سراسر دو کتاب، ۴۵ محقق (برخی به طور مشترک در هر دو کتاب) تفکر خود را درباره هوش مصنوعی توصیف می‌کنند. تقریبا همه چیز از نظر افق فکری بسیار مهم است. اما آن‌ها در مورد آنچه مهم است و در تلاش برای توصیف آن هستند متفاوت فکر می‌کنند و بسیار مخالف آن هستند که همه چیز را با ما بگویند، انگار دوست دارند از جایی به بعد سکوت کنیم.

زمان به وجود آمدن AI عمومی

بسیاری از کتاب‌هایی که شاید در سال ۱۹۸۰ نوشته شدند درباره اینترنت بودند – و هوش مصنوعی؛ بسیاری از این متخصصان می‌گویند، به احتمال زیاد این پروژه‌ای بسیار بزرگتر از اینترنت است. (جیمر ماینیکا، مدیر موسسه جهانی مک کینزی، در بخش طراحان هوش مصنوعی آن را با قابلیت تبدیل به پتانسیل برق مقایسه می‌کند). درک این موضوع برای مردم بسیار ساده است که بفهمند چه چیز خارق‌العاده‌ای در حال وقوع است، اما به طرز شگفت آوری برای آن‌ها دشوار است که پیش ‌بینی کنند که از چه قدرت‌های بالقوه‌ای دارا خواهند بود یا چه زمانی خواهند آمد و اینکه آیا برای انجام کارهای خوب به کار گرفته خواهند شد.

برخی از پیش‌بینی‌ها تا اندازه‌ای عجیب و غریب و تخیلی هستند و برخی دیگر به طرز عجیبی مهار شده‌اند. در حالی که هر دو کتاب برای خواندن بسیار جذاب هستند اما دارای نقطه ‌ضعفی مشترکند: آن‌ها می‌توانند از آواهای خوش و سودمند هوش مصنوعی استفاده کنند، آن‌ها می‌توانند آن‌ها را در کنار هم در جدولی از محتوا قرار دهند، اما آن‌ها نمی‌توانند مردم را وادار کنند تا مانند آن‌ها فکر کنند.

تقریبا همه موافق هستند که برخی سوالات خاص – هنگامی که هوش مصنوعی عمومی (یعنی هوش مصنوعی که دارای توانایی‌های حل مساله در سطح انسانی است) مطرح خواهند شد، و اینکه چگونه مطرح می‌شوند، با اینکه خطرناک هستند اما چگونه زندگی ما را تغییر خواهند داد – سوالات از اهمیت حیاتی برخوردارند، اما محققان در مورد هر چیزی، حتی تعاریف اولیه، اختلاف ‌نظر دارند. نظرسنجی‌ها نشان می‌دهند که متخصصان مختلف تخمین می‌زنند که در دوره زمانی ۲۰ سال تا دو قرن آینده به هوش مصنوعی کامل دست خواهیم یافت. این مقدار از اختلاف نظر بسیار شگفت انگیز است، حتی در حوزه‌ای که به این اندازه در مورد آن نامطمئن هستیم.

توافق درباره آینده هوش مصنوعی

باید از این محققان، که بسیاری از آن‌ها در حوزه‌های اصلی و پایه‌ای AI فعالیت دارند شگفت زده شد. اینان خود فاتحان امروزی هوش مصنوعی هستند در حالی که درباره آن هشدار می‌دهند. اما وقتی این کتاب‌ها را تفسیر کردم، بیشتر احساس خجالت می‌کردم. ما به محققان برجسته و بیشتری نیاز داریم تا بتوان به اجماعی کامل رسید – باید در مورد اولویت‌ها و آینده هوش مصنوعی توافق نظر وجود داشته باشد.

به همین دلیل است که داستان در بدترین حالت برای هوش مصنوعی بسیار وحشتناک است. و اگر این سناریو به واقعیت تبدیل شود، آسیب به بشریت می‌تواند فاجعه آمیز باشد. اختلاف نظرهایی که در این کتاب‌ها مطرح شده‌اند فقط برای نشان دادن جذابیت‌های فکری نیستند – آن‌ها برای تصمیمات سیاسی که ما باید امروزه انجام دهیم، ضروری هستند.

عده‌ای دوست دارند ما به تاریخ بپیوندیم

هوش‌های مصنوعی امروزی “هوش مصنوعی کوته فکر” هستند (یعنی با توانایی های محدود) – آن‌ها اغلب از قابلیت‌های انسانی پیشی می‌گیرند، اما تنها در حوزه‌های خاص و محدود مانند بازی کردن یا ساخت تصاویر. در زمینه‌های دیگر، مانند ترجمه، درک مطلب و یا رانندگی کردن، آن‌ها هنوز نمی‌توانند از انسان‌ها پیشی بگیرند – هر چند بسیار به ما نزدیک شده‌اند و این پیشرفت روز به روز گسترش می‌یابد. افراد زیادی انتظار دارند که هوش مصنوعی کوته فکر ما روزی به “هوش مصنوعی کلی” یا سیستم‌های AGI برسد که توانایی‌های حل مساله در سطح انسان را در بسیاری از حوزه‌های مختلف داشته باشند.

برخی از محققان برجسته در بخش طراحی هوش و ذهن‌های بالقوه سعی در ساخت AGI دارند. برخی فکر می‌کنند که آن‌ها ما را خواهند کشت و برخی دیگر فکر می‌کنند که کل تلاش آن‌ها وهمی بیش نیست، یا حداقل معمایی است که به وسیله آن می‌توانیم در امنیت کامل پا به قرن بیست و دوم بگذاریم.

با این حال، آن‌ها به برخی زمینه‌های مشترک رسیده‌اند: بحث‌های مشترک امروزه آن‌ها درباره فقدان تعریفی دقیق و روشن از AI است. زمانی که پژوهشگران برای نخستین بار به این نتیجه رسیده بودند که هوش مصنوعی می‌تواند در دهه‌های ۱۹۴۰ و ۱۹۵۰ امکان پذیر باشد، فکر آن را کرده بودند که این کار چقدر دشوار خواهد بود. پیش‌بینی‌های خوش بینانه ای درباره AGI  وجود داشت که تنها چند دهه طول کشید تا به وجود آیند. در حالی که ابزارها و تکنولوژی‌های جدید چشم‌انداز AI را تغییر داده‌اند، تاریخ باعث شده ‌است که پژوهشگران هوش مصنوعی نسبت به این ادعا که ما به AGI نزدیک هستیم، بسیار محتاط‌تر از گذشته باشند.

پیشرفت یا پسرفت AI

نیل جرشنفلد، مدیر مرکز MIT در زمینه بیت‌ها و اتم‌ها، در مقاله خود در ذهن‌های بالقوه گفت: ” بحث درباره هوش مصنوعی به طرز عجیبی دور از اصالت است. زیرا هیچ پشتوانه تاریخی ندارد. ” آن‌ها می‌توانند به عنوان جنون افسردگی انسان توصیف شوند: بسته به این است که شما چطور توصیفشان می‌کنید، ما اکنون در پنجمین چرخه از چرخه توسعه و زوال قرار داریم.”

یوشوآ بنجو، استاد دانشگاه مونترال، از استعاره متفاوتی درباره این ایده استفاده می‌کند. او می‌گوید: “ما در حال حاضر از تپه‌ای بالا می‌رویم، در حال نزدیک شدن به بالای تپه هستیم، اما در اطراف خود می‌توانیم یک سری از تپه‌های دیگر را ببینیم که در مقابل ما بالاتر می‌روند”. در مقدمه ذهن‌های بالقوه، بروکمن از پیشگامان هوش مصنوعی می‌نویسد: ” در دهه‌های گذشته من با آن‌ها روی امواج شور و اشتیاق و در وادی یاس و ناامیدی قرار گرفتم.”

خیال هوش‌های مصنوعی که در گذشته متوقف شدند – دوره‌ای که تحقیق درباره هوش مصنوعی پیشرفته متوقف شد – و از آن‌ها با عنوان AI winters یاد می‌شود بهانه را دست نویسندگانی داد که فکر می‌کردند قرار است ما طعمه دست AI شویم. از دانیلا ال روس، مدیر تحقیقات علوم کامپیوتر و آزمایشگاه هوش مصنوعی MIT، درباره AGI پرسیده شد و او پاسخ داد: ” ما بیش از ۶۰ سال است که در حال کار بر روی مشکلات هوش مصنوعی هستیم. اگر بنیانگذاران این حوزه بتوانند آنچه را که امروز به عنوان پیشرفت‌های بزرگ ترویج می‌کنند را ببینند، بسیار ناامید خواهند شد، زیرا به نظر می‌رسد که ما پیشرفت زیادی نکرده ایم.”

حتی در میان کسانی که نسبت به هوش مصنوعی خوش بین هستند، ترس وجود دارد که انتظارات ممکن است بیش از حد بالا باشد، و ممکن است حتی به مناقشه هم بی‌انجامد – بودجه کم و کناره گیری محققان و علاقه مندی‌ها – اگر آن‌ها برآورده نشوند این وضعیت شاید ادامه داشته باشد.

اندرو ان جی، یکی از بنیانگذاران هوش گوگل، و کورسِرا، می‌گوید: ” من فکر نمی‌کنم AI زمستانی دیگر را تجربه کند. اما فکر می‌کنم که باید انتظارات زیادی در مورد AGI وجود داشته باشد. در زمستان‌های اخیر هوش مصنوعی، نگرانی‌های زیادی در مورد فناوری‌هایی وجود داشت که در نهایت هیچ کدام به واقعیت بدل نشدند. … گمان می‌کنم افزایش دستاوردهای عمیق، متاسفانه همراه با امیدها و آرزوهای نادرستی برای رسیدن به AGI همراه بوده‌ است و باید که انتظارات همه را در مورد هوش مصنوعی دوباره از نو و در جهتی مفید بسازیم.”

پتانسیل بالقوه هوش مصنوعی

آلن تورینگ و جان وون نیومن از نخستین کسانی بودند که پتانسیل بالقوه هوش مصنوعی را پیش‌بینی کردند. بسیاری از سوالاتی که امروز مطرح می‌شوند – از جمله این سوال که آیا اشتباهات ما پتانسیل نابود کردن ما را دارند – سوالاتی هستند که آن‌ها هم در مورد آن‌ها فکر می‌کنند. با این حال صحبت از نگرانی‌ها به معنای از میان برداشتن آن‌ها نیست. لکان، به شدت نسبت به این ایده که ما باید در مورد خطرات هوش مصنوعی نگران باشیم تردید دارد، با این وجود موکدا تاکید می‌کند که ما روزی هوش مصنوعی عمومی (با قدرت فکری انسان) را با تمام مفاهیمی که با آن روبرو هستیم توسعه خواهیم داد.

ان جی خاطرنشان می‌کند که هوش مصنوعی در حال حاضر خودش را در صنعت، آزمایشگاه‌های تحقیقاتی و دانشگاه‌ها جا داده ‌است که بی‌علاقگی جمعی ناشی از شکست‌های هوش مصنوعی در گذشته، بعید به نظر می‌رسد. حتی تکامل بررسی مفاهیم و تکنیک‌هایی که تا کنون کشف کرده‌ایم، سال‌ها طول خواهند کشید، که در طی آن پارادایم‌های جدید، در صورت نیاز، می‌توانند پدیدار شوند. افرادی که بر روی AI کار می‌کنند، به طور عمده بر این باورند که حتی اگر آن روز بسیار دور باشد، ما روزی AGI را خواهیم ساخت. اما همه آن‌ها مطمئن نیستند که این درست است یا نه. ری کرزویل از گوگل، که به خاطر خوش بینی یکتا گرایانه اش مشهور است، در مقام خود باور دارد که آن روز موعود در سال ۲۰۲۹ فرا خواهد رسید، شاید به این خاطر چنین می‌گوید که بیش از حد محافظه‌کار است.

عمیق‌ترین اختلافات بیش از دو چیز هستند: بازه زمانی و خطرات ناشی از هوش مصنوعی

متخصصان هر دو کتاب منظره‌های گوناگونی از هوش مصنوعی و معنای آن را ارائه دادند. آن‌ها مواضع مختلفی را در مورد سودمندی آزمون تورینگ مورد بحث قرار می‌دهند – چک کردن اینکه آیا یک کامپیوتر می‌تواند مکالمه داشته باشد و یا مردم را متقاعد کند که او هم انسان است – درست برای ارزیابی زمانی که هوش مصنوعی بتواند از مهارت‌های انسانی برخوردار باشد. آن‌ها در مورد این که چقدر تحت‌ تاثیر شبکه‌های عصبی قرار گرفته‌اند متفاوت هستند – این رویکرد در مورد هوش مصنوعی پیش از پیشرفت‌های اخیر حاصل شده است – و تا چه حد آن‌ها بر این باورند که الگوی یادگیری عمیق هوش مصنوعی ما را به او جذب خواهد کرد. دیدگاه‌های متنوع خود را باید به گونه‌ای بیان کنیم تا سبب تفاوت‌های ظریف و موقعیتی نشود. واقعا دشوار است.

اما چند اختلاف ‌نظر بزرگ وجود دارد. اولی زمانی است که AGI اتفاق می‌افتد در حالی که برخی متخصصان اطمینان دارند با این اتفاق فاصله زیادی داریم و برخی دیگر مطمئن هستند که این کار به شدت وحشتناک خواهد بود و بسیاری دیگر حتی تمایلی ندارند درباره این موضوع فکر کنند – شاید منتظرند تا ببینند که چه چالش‌هایی برای AI در این مسیر وجود خواهد داشت. غیر معمول است که این موضوع فقط در حوزه متخصصان مطرح تا سبب وجود اختلاف ‌نظرهای بسیاری شود؛ حتی افرادی که به طور فعال روی AGI کار می‌کنند در هر حوزه‌ای باید نظرات و حتی اختلاف نظرهای خود را بیان کنند تا متوجه شویم میزان این نگرانی تا چه اندازه است.

کرزویل، که معتقد است سال ۲۰۲۹، سال ظهور AGI است، عادت دارد پیشرفت‌های تکنولوژیکی بسیار سریعی را پیش‌بینی کند. همه در این باره مثل من فکر می‌کنند. تخمین‌ها و پیش‌بینی های مکس تگ مارک از MIT که در کتاب ذهن‌های بالقوه حضور دارد، کمی محافظه کارانه هستند. او در بررسی که اخیرا انجام شد متوجه شد که “سیستم‌های هوش مصنوعی احتمالا (بیش از ۵۰ درصد) به توانایی کلی انسان تا سال ۲۰۴۰ و به احتمال زیاد (با احتمال ۹۰ درصد) تا سال ۲۰۷۵ دست خواهند یافت.”

نگرانی ها در پرتو پیشرفت‌های اخیر AI

اختلاف دوم بر سر این است که آیا خطری جدی وجود دارد که AI بشر را از بین خواهد ببرد – نگرانی که به طور فزاینده‌ای در پرتو پیشرفت‌های اخیر AI به وجود آمده است. استوارت راسل از یو سی برکلی، که در هر دو کتاب حضور دارد، معتقد است که این اتفاق خواهد افتاد. او به همراه نیک باستروم (فیلسوف سوئدی در دانشگاه آکسفورد)، تِگ مارک، اسکایپ و بنیانگذار مرکز مطالعه خطر وجودی، جان تالین، مطالبی را در این دو کتاب نوشته‌اند. نگرانی درباره خطر هوش مصنوعی بطور قابل ‌توجهی از سوی محققان وابسته به فیس بوک، هوش گوگل و DeepMind، بیان می‌شود.

کتاب نور برت وینر در سال ۱۹۵۰ به نام “استفاده انسان از موجودات انسانی”، کتابی است که الهام‌ بخش ذهن‌های بالقوه است، یکی از نخستین کتاب‌هایی است که ما را با استدلال‌ها و نگرانی‌های امنیتی هوش مصنوعی روبرو می‌کند: این واقعیت است که یک هوش مصنوعی پیشرفته “مفهوم واقعی ما از چیزی را”  همانطور درک نخواهد کرد که ما درک می‌کنیم و این امر سبب نمی‌شود روش‌هایی که انسان‌ها با آن موافق هستند را اتخاذ کند. نور برت وینر هشدار داد: “هوش مصنوعی که می‌تواند یاد بگیرد و می‌تواند براساس یادگیری اش تصمیم‌ بگیرد، به هیچ وجه موظف به اتخاذ تصمیماتی که ما می‌خواهیم و یا درست می‌پنداریم نیست، همانگونه که ما انجام می‌دادیم یا برای ما قابل ‌قبول بودند و یا نبودند.”

از سوی دیگر، استیون پینکر سهم قابل ‌توجهی از مقاله خود را در ذهن‌های بالقوه به این مهم اختصاص می‌دهد و این ایده را به سخره می‌گیرد. او می‌نویسد، ” این سنارویی است که خودشان را رد می‌کند، فرض بر این است که یک AI ناخلف از آب دربیاید و بر اساس اشتباه‌های کوچک و سوءتفاهم های جزئی شروع به تاثیرگذاری کند، آن وقت تکلیف چیست؟”

تفرقه در میان نویسندگان درباره هوش مصنوعی، نشان دهنده اختلاف نظرهای جدی در این باره است. در بررسی اخیر از پژوهشگران هوش مصنوعی که در دو کنفرانس اصلی بین‌المللی هوش مصنوعی در سال ۲۰۱۵ منتشر شدند، دریافتند که ۴۰ درصد پژوهشگران در حال حاضر فکر می‌کنند که خطرهای هوش مصنوعی پیشرفته ” مشکلی مهم” یا ” مهم‌ترین مشکلات در این زمینه” هستند. تالین هم به این موضوع در مقاله خود در کتاب ذهن بالقوه اشاره کرده است.

امنیت زندگی بشر

آیا باید آنقدر نگران امنیت خود نسبت به AI باشیم تا میزان این نگرانی به ۱۰۰ درصد تبدیل شود و همه پژوهشگران و طراحان هوش مصنوعی درباره این نگرانی به توافق آرا برسند؟ او می‌نویسد: ” تصور کنید که در هواپیمایی نشسته‌ای که در حالت تیک آف متوقف شده است و ناگهان اعلام می‌شود که ۴۰ درصد از کارشناسان بر این باورند که دارند روی یک بمب کار می‌کنند. در این نقطه، مسیر این پژوهش بیش از پیش روشن می‌شود و حال باید منتظر بمانیم تا ۶۰ درصد باقیمانده نیز به چنین باوری برسند.”

به سبب همین اختلافات گیج کننده است که تا اندازه‌ای باید از این اتفاق ناامید شد. اما این تنها درکی سطحی از این موضوع است که آن‌ها چطور و چرا با هم مخالفت می‌کنند. کرزویل عقیده دارد کسانی که ادعا می‌کنند AGI تا صد سال دیگر به نتیجه نمی‌رسد، قادر به درک قدرت رشد انعطاف پذیری نیستند و تفکری بیش از حد خطی دارند. این بینش بهتری نسبت به ریشه این فقدان توافق است. اما این تنها چیزی است که ما به دست می‌آوریم.

چگونه یک حوزه تحقیقاتی می‌تواند به نقطه‌ای برسد که اندیشمندان برتر آن انتظار داشته باشند نقطه بحرانی خود را در طی ۱۰ سال یا سه قرن آینده هدف قرار دهند؟ شاید آنقدرها هم عجیب نباشد. اما این نبود اطمینان زیاد اطمینان ‌بخش نیست و قیاس هوش مصنوعی با طلوع عصر هسته‌ای نیز زیاد صادق نیست. مخاطرات در اینجا بسیار زیاد هستند. در بهترین حالت، به نظر می‌رسد که ما بسیاری از افراد نابینا را می‌بینیم که به همان فیل چنگ می‌اندازند. در بدترین حالت، ما به آن‌ها نگاه می‌کنیم که به درستی وارد اشتباهی مرگبار می‌شوند، در حالی که نبود اطمینان کافی و انتظارات متفاوت از محققان را به عنوان نشانه‌ای در نظر می‌گیریم تا بیشتر در این زمینه تحقیق و بررسی کنیم.

شهین غمگسار
مترجم هستم. با واژه‌ها سروکار دارم. و گاهی می نویسم.