هوش مصنوعی در حال بازی بازیی استراتژیک در قالب ذهن بالقوه است، نوشتن مقالات خبری، انبار کردن پروتئینها و آموزش حرکات جدید استاد بزرگ در بازی Go. برخی متخصصان هشدار میدهند از آنجا که ما سیستمهای خود را قدرتمندتر میکنیم در نتیجه، ممکن است با خطرات بیسابقهای روبرو شویم. برخی نیز مدعی هستند که با آن روز موعود قرنها فاصله داریم و پیشبینیها در مورد خطرات هوش مصنوعی، امروزه روز کمی مسخره به نظر میرسند. بررسیهای انجام شده نشان میدهند که مردم آمریکا در مورد دستگاههای کنترل خودکار، حریم خصوصی داده و “نقص سیستمهای حیاتی هوش مصنوعی” نگران هستند زیرا فکر میکنند میتواند منجر به کشتن مردم شود. در دو کتاب جدید، ۴۵ متخصص هوش مصنوعی با چیزی بزرگ و احتمالا ترسناک دست و پنجه نرم میکنند. در ادامه با آراد مگ همراه باشید.
چگونه با موضوع هوش مصنوعی برخورد میکنید؟
در هفته گذشته، در زمینه هوش مصنوعی دو کتاب جدید منتشر شده است که هر دو کتاب رویکرد مشابهی دارند. ذهنهای بالقوه، ویرایش شده از سوی جان بروکمن و منتشر شده از سوی انتشارات پنگوئن، در این کتاب از ۲۵ متفکر مهم – از جمله مکس تگ مارک، جان تالین، استیون پینکر، و استوارت راسل – درباره این مهم سوال شده است. هر کدام مقالهای کوتاه درباره “روشهای نگاه کردن” به هوش مصنوعی در این کتاب نوشتهاند.
طراحان هوش مصنوعی در اطلاعات منتشر شده در نوامبر گذشته از سوی انتشارات Packt به ما قول دادهاند که “حقیقت را در مورد هوش مصنوعی از طرف افرادی که آن را میسازند” به همراه ۲۲ گفتگو بین مارتین فورد و محققان طراز اول همچون موسس هوش گوگل، اندور اِن جی، یان لکان از فیس بوک و دمیس حسابیس از شرکت DeepMind به ما بگویند.
در سراسر دو کتاب، ۴۵ محقق (برخی به طور مشترک در هر دو کتاب) تفکر خود را درباره هوش مصنوعی توصیف میکنند. تقریبا همه چیز از نظر افق فکری بسیار مهم است. اما آنها در مورد آنچه مهم است و در تلاش برای توصیف آن هستند متفاوت فکر میکنند و بسیار مخالف آن هستند که همه چیز را با ما بگویند، انگار دوست دارند از جایی به بعد سکوت کنیم.
زمان به وجود آمدن AI عمومی
بسیاری از کتابهایی که شاید در سال ۱۹۸۰ نوشته شدند درباره اینترنت بودند – و هوش مصنوعی؛ بسیاری از این متخصصان میگویند، به احتمال زیاد این پروژهای بسیار بزرگتر از اینترنت است. (جیمر ماینیکا، مدیر موسسه جهانی مک کینزی، در بخش طراحان هوش مصنوعی آن را با قابلیت تبدیل به پتانسیل برق مقایسه میکند). درک این موضوع برای مردم بسیار ساده است که بفهمند چه چیز خارقالعادهای در حال وقوع است، اما به طرز شگفت آوری برای آنها دشوار است که پیش بینی کنند که از چه قدرتهای بالقوهای دارا خواهند بود یا چه زمانی خواهند آمد و اینکه آیا برای انجام کارهای خوب به کار گرفته خواهند شد.
برخی از پیشبینیها تا اندازهای عجیب و غریب و تخیلی هستند و برخی دیگر به طرز عجیبی مهار شدهاند. در حالی که هر دو کتاب برای خواندن بسیار جذاب هستند اما دارای نقطه ضعفی مشترکند: آنها میتوانند از آواهای خوش و سودمند هوش مصنوعی استفاده کنند، آنها میتوانند آنها را در کنار هم در جدولی از محتوا قرار دهند، اما آنها نمیتوانند مردم را وادار کنند تا مانند آنها فکر کنند.
تقریبا همه موافق هستند که برخی سوالات خاص – هنگامی که هوش مصنوعی عمومی (یعنی هوش مصنوعی که دارای تواناییهای حل مساله در سطح انسانی است) مطرح خواهند شد، و اینکه چگونه مطرح میشوند، با اینکه خطرناک هستند اما چگونه زندگی ما را تغییر خواهند داد – سوالات از اهمیت حیاتی برخوردارند، اما محققان در مورد هر چیزی، حتی تعاریف اولیه، اختلاف نظر دارند. نظرسنجیها نشان میدهند که متخصصان مختلف تخمین میزنند که در دوره زمانی ۲۰ سال تا دو قرن آینده به هوش مصنوعی کامل دست خواهیم یافت. این مقدار از اختلاف نظر بسیار شگفت انگیز است، حتی در حوزهای که به این اندازه در مورد آن نامطمئن هستیم.
توافق درباره آینده هوش مصنوعی
باید از این محققان، که بسیاری از آنها در حوزههای اصلی و پایهای AI فعالیت دارند شگفت زده شد. اینان خود فاتحان امروزی هوش مصنوعی هستند در حالی که درباره آن هشدار میدهند. اما وقتی این کتابها را تفسیر کردم، بیشتر احساس خجالت میکردم. ما به محققان برجسته و بیشتری نیاز داریم تا بتوان به اجماعی کامل رسید – باید در مورد اولویتها و آینده هوش مصنوعی توافق نظر وجود داشته باشد.
به همین دلیل است که داستان در بدترین حالت برای هوش مصنوعی بسیار وحشتناک است. و اگر این سناریو به واقعیت تبدیل شود، آسیب به بشریت میتواند فاجعه آمیز باشد. اختلاف نظرهایی که در این کتابها مطرح شدهاند فقط برای نشان دادن جذابیتهای فکری نیستند – آنها برای تصمیمات سیاسی که ما باید امروزه انجام دهیم، ضروری هستند.
عدهای دوست دارند ما به تاریخ بپیوندیم
هوشهای مصنوعی امروزی “هوش مصنوعی کوته فکر” هستند (یعنی با توانایی های محدود) – آنها اغلب از قابلیتهای انسانی پیشی میگیرند، اما تنها در حوزههای خاص و محدود مانند بازی کردن یا ساخت تصاویر. در زمینههای دیگر، مانند ترجمه، درک مطلب و یا رانندگی کردن، آنها هنوز نمیتوانند از انسانها پیشی بگیرند – هر چند بسیار به ما نزدیک شدهاند و این پیشرفت روز به روز گسترش مییابد. افراد زیادی انتظار دارند که هوش مصنوعی کوته فکر ما روزی به “هوش مصنوعی کلی” یا سیستمهای AGI برسد که تواناییهای حل مساله در سطح انسان را در بسیاری از حوزههای مختلف داشته باشند.
برخی از محققان برجسته در بخش طراحی هوش و ذهنهای بالقوه سعی در ساخت AGI دارند. برخی فکر میکنند که آنها ما را خواهند کشت و برخی دیگر فکر میکنند که کل تلاش آنها وهمی بیش نیست، یا حداقل معمایی است که به وسیله آن میتوانیم در امنیت کامل پا به قرن بیست و دوم بگذاریم.
با این حال، آنها به برخی زمینههای مشترک رسیدهاند: بحثهای مشترک امروزه آنها درباره فقدان تعریفی دقیق و روشن از AI است. زمانی که پژوهشگران برای نخستین بار به این نتیجه رسیده بودند که هوش مصنوعی میتواند در دهههای ۱۹۴۰ و ۱۹۵۰ امکان پذیر باشد، فکر آن را کرده بودند که این کار چقدر دشوار خواهد بود. پیشبینیهای خوش بینانه ای درباره AGI وجود داشت که تنها چند دهه طول کشید تا به وجود آیند. در حالی که ابزارها و تکنولوژیهای جدید چشمانداز AI را تغییر دادهاند، تاریخ باعث شده است که پژوهشگران هوش مصنوعی نسبت به این ادعا که ما به AGI نزدیک هستیم، بسیار محتاطتر از گذشته باشند.
پیشرفت یا پسرفت AI
نیل جرشنفلد، مدیر مرکز MIT در زمینه بیتها و اتمها، در مقاله خود در ذهنهای بالقوه گفت: ” بحث درباره هوش مصنوعی به طرز عجیبی دور از اصالت است. زیرا هیچ پشتوانه تاریخی ندارد. ” آنها میتوانند به عنوان جنون افسردگی انسان توصیف شوند: بسته به این است که شما چطور توصیفشان میکنید، ما اکنون در پنجمین چرخه از چرخه توسعه و زوال قرار داریم.”
یوشوآ بنجو، استاد دانشگاه مونترال، از استعاره متفاوتی درباره این ایده استفاده میکند. او میگوید: “ما در حال حاضر از تپهای بالا میرویم، در حال نزدیک شدن به بالای تپه هستیم، اما در اطراف خود میتوانیم یک سری از تپههای دیگر را ببینیم که در مقابل ما بالاتر میروند”. در مقدمه ذهنهای بالقوه، بروکمن از پیشگامان هوش مصنوعی مینویسد: ” در دهههای گذشته من با آنها روی امواج شور و اشتیاق و در وادی یاس و ناامیدی قرار گرفتم.”
خیال هوشهای مصنوعی که در گذشته متوقف شدند – دورهای که تحقیق درباره هوش مصنوعی پیشرفته متوقف شد – و از آنها با عنوان AI winters یاد میشود بهانه را دست نویسندگانی داد که فکر میکردند قرار است ما طعمه دست AI شویم. از دانیلا ال روس، مدیر تحقیقات علوم کامپیوتر و آزمایشگاه هوش مصنوعی MIT، درباره AGI پرسیده شد و او پاسخ داد: ” ما بیش از ۶۰ سال است که در حال کار بر روی مشکلات هوش مصنوعی هستیم. اگر بنیانگذاران این حوزه بتوانند آنچه را که امروز به عنوان پیشرفتهای بزرگ ترویج میکنند را ببینند، بسیار ناامید خواهند شد، زیرا به نظر میرسد که ما پیشرفت زیادی نکرده ایم.”
حتی در میان کسانی که نسبت به هوش مصنوعی خوش بین هستند، ترس وجود دارد که انتظارات ممکن است بیش از حد بالا باشد، و ممکن است حتی به مناقشه هم بیانجامد – بودجه کم و کناره گیری محققان و علاقه مندیها – اگر آنها برآورده نشوند این وضعیت شاید ادامه داشته باشد.
اندرو ان جی، یکی از بنیانگذاران هوش گوگل، و کورسِرا، میگوید: ” من فکر نمیکنم AI زمستانی دیگر را تجربه کند. اما فکر میکنم که باید انتظارات زیادی در مورد AGI وجود داشته باشد. در زمستانهای اخیر هوش مصنوعی، نگرانیهای زیادی در مورد فناوریهایی وجود داشت که در نهایت هیچ کدام به واقعیت بدل نشدند. … گمان میکنم افزایش دستاوردهای عمیق، متاسفانه همراه با امیدها و آرزوهای نادرستی برای رسیدن به AGI همراه بوده است و باید که انتظارات همه را در مورد هوش مصنوعی دوباره از نو و در جهتی مفید بسازیم.”
پتانسیل بالقوه هوش مصنوعی
آلن تورینگ و جان وون نیومن از نخستین کسانی بودند که پتانسیل بالقوه هوش مصنوعی را پیشبینی کردند. بسیاری از سوالاتی که امروز مطرح میشوند – از جمله این سوال که آیا اشتباهات ما پتانسیل نابود کردن ما را دارند – سوالاتی هستند که آنها هم در مورد آنها فکر میکنند. با این حال صحبت از نگرانیها به معنای از میان برداشتن آنها نیست. لکان، به شدت نسبت به این ایده که ما باید در مورد خطرات هوش مصنوعی نگران باشیم تردید دارد، با این وجود موکدا تاکید میکند که ما روزی هوش مصنوعی عمومی (با قدرت فکری انسان) را با تمام مفاهیمی که با آن روبرو هستیم توسعه خواهیم داد.
ان جی خاطرنشان میکند که هوش مصنوعی در حال حاضر خودش را در صنعت، آزمایشگاههای تحقیقاتی و دانشگاهها جا داده است که بیعلاقگی جمعی ناشی از شکستهای هوش مصنوعی در گذشته، بعید به نظر میرسد. حتی تکامل بررسی مفاهیم و تکنیکهایی که تا کنون کشف کردهایم، سالها طول خواهند کشید، که در طی آن پارادایمهای جدید، در صورت نیاز، میتوانند پدیدار شوند. افرادی که بر روی AI کار میکنند، به طور عمده بر این باورند که حتی اگر آن روز بسیار دور باشد، ما روزی AGI را خواهیم ساخت. اما همه آنها مطمئن نیستند که این درست است یا نه. ری کرزویل از گوگل، که به خاطر خوش بینی یکتا گرایانه اش مشهور است، در مقام خود باور دارد که آن روز موعود در سال ۲۰۲۹ فرا خواهد رسید، شاید به این خاطر چنین میگوید که بیش از حد محافظهکار است.
عمیقترین اختلافات بیش از دو چیز هستند: بازه زمانی و خطرات ناشی از هوش مصنوعی
متخصصان هر دو کتاب منظرههای گوناگونی از هوش مصنوعی و معنای آن را ارائه دادند. آنها مواضع مختلفی را در مورد سودمندی آزمون تورینگ مورد بحث قرار میدهند – چک کردن اینکه آیا یک کامپیوتر میتواند مکالمه داشته باشد و یا مردم را متقاعد کند که او هم انسان است – درست برای ارزیابی زمانی که هوش مصنوعی بتواند از مهارتهای انسانی برخوردار باشد. آنها در مورد این که چقدر تحت تاثیر شبکههای عصبی قرار گرفتهاند متفاوت هستند – این رویکرد در مورد هوش مصنوعی پیش از پیشرفتهای اخیر حاصل شده است – و تا چه حد آنها بر این باورند که الگوی یادگیری عمیق هوش مصنوعی ما را به او جذب خواهد کرد. دیدگاههای متنوع خود را باید به گونهای بیان کنیم تا سبب تفاوتهای ظریف و موقعیتی نشود. واقعا دشوار است.
اما چند اختلاف نظر بزرگ وجود دارد. اولی زمانی است که AGI اتفاق میافتد در حالی که برخی متخصصان اطمینان دارند با این اتفاق فاصله زیادی داریم و برخی دیگر مطمئن هستند که این کار به شدت وحشتناک خواهد بود و بسیاری دیگر حتی تمایلی ندارند درباره این موضوع فکر کنند – شاید منتظرند تا ببینند که چه چالشهایی برای AI در این مسیر وجود خواهد داشت. غیر معمول است که این موضوع فقط در حوزه متخصصان مطرح تا سبب وجود اختلاف نظرهای بسیاری شود؛ حتی افرادی که به طور فعال روی AGI کار میکنند در هر حوزهای باید نظرات و حتی اختلاف نظرهای خود را بیان کنند تا متوجه شویم میزان این نگرانی تا چه اندازه است.
کرزویل، که معتقد است سال ۲۰۲۹، سال ظهور AGI است، عادت دارد پیشرفتهای تکنولوژیکی بسیار سریعی را پیشبینی کند. همه در این باره مثل من فکر میکنند. تخمینها و پیشبینی های مکس تگ مارک از MIT که در کتاب ذهنهای بالقوه حضور دارد، کمی محافظه کارانه هستند. او در بررسی که اخیرا انجام شد متوجه شد که “سیستمهای هوش مصنوعی احتمالا (بیش از ۵۰ درصد) به توانایی کلی انسان تا سال ۲۰۴۰ و به احتمال زیاد (با احتمال ۹۰ درصد) تا سال ۲۰۷۵ دست خواهند یافت.”
نگرانی ها در پرتو پیشرفتهای اخیر AI
اختلاف دوم بر سر این است که آیا خطری جدی وجود دارد که AI بشر را از بین خواهد ببرد – نگرانی که به طور فزایندهای در پرتو پیشرفتهای اخیر AI به وجود آمده است. استوارت راسل از یو سی برکلی، که در هر دو کتاب حضور دارد، معتقد است که این اتفاق خواهد افتاد. او به همراه نیک باستروم (فیلسوف سوئدی در دانشگاه آکسفورد)، تِگ مارک، اسکایپ و بنیانگذار مرکز مطالعه خطر وجودی، جان تالین، مطالبی را در این دو کتاب نوشتهاند. نگرانی درباره خطر هوش مصنوعی بطور قابل توجهی از سوی محققان وابسته به فیس بوک، هوش گوگل و DeepMind، بیان میشود.
کتاب نور برت وینر در سال ۱۹۵۰ به نام “استفاده انسان از موجودات انسانی”، کتابی است که الهام بخش ذهنهای بالقوه است، یکی از نخستین کتابهایی است که ما را با استدلالها و نگرانیهای امنیتی هوش مصنوعی روبرو میکند: این واقعیت است که یک هوش مصنوعی پیشرفته “مفهوم واقعی ما از چیزی را” همانطور درک نخواهد کرد که ما درک میکنیم و این امر سبب نمیشود روشهایی که انسانها با آن موافق هستند را اتخاذ کند. نور برت وینر هشدار داد: “هوش مصنوعی که میتواند یاد بگیرد و میتواند براساس یادگیری اش تصمیم بگیرد، به هیچ وجه موظف به اتخاذ تصمیماتی که ما میخواهیم و یا درست میپنداریم نیست، همانگونه که ما انجام میدادیم یا برای ما قابل قبول بودند و یا نبودند.”
از سوی دیگر، استیون پینکر سهم قابل توجهی از مقاله خود را در ذهنهای بالقوه به این مهم اختصاص میدهد و این ایده را به سخره میگیرد. او مینویسد، ” این سنارویی است که خودشان را رد میکند، فرض بر این است که یک AI ناخلف از آب دربیاید و بر اساس اشتباههای کوچک و سوءتفاهم های جزئی شروع به تاثیرگذاری کند، آن وقت تکلیف چیست؟”
تفرقه در میان نویسندگان درباره هوش مصنوعی، نشان دهنده اختلاف نظرهای جدی در این باره است. در بررسی اخیر از پژوهشگران هوش مصنوعی که در دو کنفرانس اصلی بینالمللی هوش مصنوعی در سال ۲۰۱۵ منتشر شدند، دریافتند که ۴۰ درصد پژوهشگران در حال حاضر فکر میکنند که خطرهای هوش مصنوعی پیشرفته ” مشکلی مهم” یا ” مهمترین مشکلات در این زمینه” هستند. تالین هم به این موضوع در مقاله خود در کتاب ذهن بالقوه اشاره کرده است.
امنیت زندگی بشر
آیا باید آنقدر نگران امنیت خود نسبت به AI باشیم تا میزان این نگرانی به ۱۰۰ درصد تبدیل شود و همه پژوهشگران و طراحان هوش مصنوعی درباره این نگرانی به توافق آرا برسند؟ او مینویسد: ” تصور کنید که در هواپیمایی نشستهای که در حالت تیک آف متوقف شده است و ناگهان اعلام میشود که ۴۰ درصد از کارشناسان بر این باورند که دارند روی یک بمب کار میکنند. در این نقطه، مسیر این پژوهش بیش از پیش روشن میشود و حال باید منتظر بمانیم تا ۶۰ درصد باقیمانده نیز به چنین باوری برسند.”
به سبب همین اختلافات گیج کننده است که تا اندازهای باید از این اتفاق ناامید شد. اما این تنها درکی سطحی از این موضوع است که آنها چطور و چرا با هم مخالفت میکنند. کرزویل عقیده دارد کسانی که ادعا میکنند AGI تا صد سال دیگر به نتیجه نمیرسد، قادر به درک قدرت رشد انعطاف پذیری نیستند و تفکری بیش از حد خطی دارند. این بینش بهتری نسبت به ریشه این فقدان توافق است. اما این تنها چیزی است که ما به دست میآوریم.
چگونه یک حوزه تحقیقاتی میتواند به نقطهای برسد که اندیشمندان برتر آن انتظار داشته باشند نقطه بحرانی خود را در طی ۱۰ سال یا سه قرن آینده هدف قرار دهند؟ شاید آنقدرها هم عجیب نباشد. اما این نبود اطمینان زیاد اطمینان بخش نیست و قیاس هوش مصنوعی با طلوع عصر هستهای نیز زیاد صادق نیست. مخاطرات در اینجا بسیار زیاد هستند. در بهترین حالت، به نظر میرسد که ما بسیاری از افراد نابینا را میبینیم که به همان فیل چنگ میاندازند. در بدترین حالت، ما به آنها نگاه میکنیم که به درستی وارد اشتباهی مرگبار میشوند، در حالی که نبود اطمینان کافی و انتظارات متفاوت از محققان را به عنوان نشانهای در نظر میگیریم تا بیشتر در این زمینه تحقیق و بررسی کنیم.
پاسخ دهید