آیا باید برای راهنمایی اخلاقی به هوش مصنوعی گوش کنیم؟

هوش مصنوعی سال‌هاست که فلاسفه علم و محققان و نظریه‌پردازان دیگر شاخه‌ها را درگیر خود کرده، حال ورود هوش مصنوعی به حوزه اخلاق و اصول اخلاقی در مقام یک مشاور. و این نگرانی‌های تازه‌ای را رقم زده است. مشاوره هوش مصنوعی با توجه به اصول اخلاقی تا چه اندازه می‌تواند به بهبود اصول اخلاقی بشر با سابقه‌ای اسف‌بار و ناخوشایند کمک کند؟ و یا می‌توان سوال را به شکل دیگری پرسید: انسان مملو از تناقض‌های اخلاقی است که به سبب قید و بندهای دینی و باورهایی است که با مناطق مختلف جغرافیایی تغییر می‌کند، حال انسانی که با چنین اصول اخلاقی نابسامانی روبرو است، چطور می‌تواند هوش مصنوعی را به عنوان مشاور اخلاقی خلق کند با این هدف که او می‌تواند اصول اخلاقی بشر را بهبود دهد؟ منبع اطلاعاتی مشاور اخلاقی هوش مصنوعی چه باید باشد؟ به حقیقت انسان تا چه اندازه نسبت به اصول اخلاقی شناخت دارد؟ اخلاق در منظر انسان به چه معناست؟ تمامی این سوال‌ها از سوی فیلسوف، معرفت شناس و روانشناس اخلاق و فرا اخلاق مایکل کلِنک مورد بررسی قرار گرفته‌اند. در ادامه با آراد مگ همراه باشید.

هوش مصنوعی و مشاوره اخلاقی

من در دو شهر مختلف زندگی و کار می‌کنم؛ همیشه در حال رفت و آمد هستم، به طور مداوم از تلفن خودم برای گرفتن مشاوره و پرسیدن سوال استفاده می‌کنم: مثلا، قطار بعدی کی می‌رسد؟ آیا باید از اتوبوس استفاده کنم، یا می‌توانم کمی پیاده روی کنم و هنوز وقت دارم که به نخستین جلسه کاری خود برسم؟ از امکانات تلفن خودم برای پیدا کردن مکان‌هایی برای غذا خوردن و چیزهای دیگر استفاده می‌کنم و اجازه می‌دهم او مرا هدایت کند، و اعتراف می‌کنم که تقریبا برای هر سوالی، نخستین چیزی که به ذهنم می‌رسد این است که از اینترنت تلفن خود کمک بگیرم و قطعا بهترین پاسخ را خواهد داد.

حمایت من از هوش مصنوعی، سبب شده است تا در شرکت خوبی مشغول به کار شوم. متخصصان حرفه‌ای هم که با مسائل بسیار مهمی سروکار دارند همین کار را انجام می‌دهند، برای نمونه وقتی که به هوش مصنوعی گوش می‌دهند تا تشخیص دهند چه کسی احتمال ابتلا به سرطان را دارد و یا وام خود را پس می‌دهد یا به زندان خواهد رفت و غیره. همه این‌ها بسیار خوب هستند، البته تا جایی که نیاز داریم و بتوانیم به طور واضح سوال‌های واقعی و کاملا روشنی را که پاسخ‌های قابل‌ محاسبه دارند حل کنیم.

حالا برنامه‌ی جدید و شگفت انگیزی را تصور کنید. برنامه‌ای که به شما می‌گوید که کارهایی چون دروغ گفتن به یکی از دوستان درباره ظاهرشان، گرفتن بلیط هواپیما در زمان گرم شدن کره زمین، یا اینکه آیا شما باید به دلایل انسانی به هم نوع خود و دیگر موجودات کمک کنید و گیاهخوار بودن برایتان مجاز هست یا نه. مشاوری اخلاقی هوش مصنوعی، شما را از طریق پیچ و خم‌های روحی زندگی روزمره راهنمایی می‌کند. با فشار دادن یک دکمه، شما باید سوالات اخلاقی خود را به طور کامل حل کنید؛ اگر بسیاری به این برنامه گوش دهند، ممکن است در مسیر رسیدن به جامعه‌ای بهتر قرار بگیریم.

هوش مصنوعی - مشاوره اخلاقی هوش مصنوعی
مایکل کلِنک

تلاش‌های قاطع برای ایجاد چنین مشاوران اخلاقی برای هوش مصنوعی پیش از این در حال انجام است. برخی از محققان، مشاوران اخلاقی هوش مصنوعی را به عنوان بهبودهای گسترده ضعف‌های انسان‌ها در نظر می‌گیرند، و آن را به عنوان بهترین فرصت برای جلوگیری از انقراض زندگی انسان به دست خود می‌دانند. برخی از محققان خواهان این هستند که ما به ماشین‌هایی که توصیه اخلاقی می‌کنند گوش دهیم و این را نوعی باید تلقی می‌کنند. اما آیا ما باید این کار را بکنیم؟

ضروری است که پیشنهاداتی را برای توصیه‌های اخلاقی هوش مصنوعی به طور جدی مطرح کنیم زیرا نیاز واقعی به بهبود احکام اخلاقی ما وجود دارد. نه تنها برخی اقدامات ما غالبا از نظر اخلاقی نادرست هستند، بلکه تحقیقات تجربی بسیاری این مشکلات قابل‌ توجه را با تصمیم‌گیری اخلاقی به طور مستند ارائه کرده‌اند. برای مثال، انسان‌ها به طور معمول به اعضای گروه خود نسبت به افراد خارج از گروه بیشتر علاقه‌مند هستند، و بسیاری از اخلاق گرایان معتقد هستند که این ارجحیت را نمی توان از لحاظ اخلاقی مورد دفاع قرار داد. تعصب نژادی نیز از نظر اخلاقی نامشروع است، اما به طور ضمنی بر افرادی تاثیر دارد که صریحا اصول برابری را تایید می‌کنند. به طور مشابه، فاکتورهای موقعیتی مثل این که شما در حالت خوب، داغ یا سرد، خسته یا بیدار، بیزار و یا علاقه‌مند هستید، نشان‌ داده‌اند که قضاوت اخلاقی مردم را تحت‌ تاثیر و تغییر قرار می‌دهد. این امر نگران‌ کننده است. باورهای اخلاقی ما باید تنها به چیزهایی حساس باشند که از لحاظ اخلاقی مهم هستند، و اخلاق گرایان برای توضیح این که چرا چنین عوامل موقعیتی باید بر قضاوت اخلاقی تاثیر بگذارند، سخت تلاش می‌کنند. این باعث می‌شود که چشم‌انداز مشاوران اخلاقی هوش مصنوعی به طور جدی مورد توجه گرفته شود.

چشم‌انداز مشاور اخلاقی هوش مصنوعی

چشم‌انداز مشاوران اخلاقی هوش مصنوعی به دو سوال اصلی بستگی دارد: آیا ما باید از هر کسی مشاوره اخلاقی بگیریم؟ و اگر اینطور است، آیا ماشین‌ها در اصول اخلاقی خوب هستند (یا حداقل، بهتر از ما هستند، اگر چنین باشد، بنابراین منطقی است که ما به آن‌ها گوش دهیم)؟ من فقط به طور مختصر نگران سوال اول هستم و بعد به سوال دوم رجوع می‌کنم. خواهیم دید که قبل از اینکه بتوانیم توصیه‌های اخلاقی هوش مصنوعی را بپذیریم، باید بر چندین مانع فنی و عملی غلبه کنیم.

برای شروع، مسئله‌ای اساسی برای گرفتن توصیه‌های اخلاقی از هر کسی وجود دارد که باید در هنگام ارزیابی مشاوران اخلاقی هوش مصنوعی در آینده، آن‌ها را مد نظر داشته باشیم. وقتی سوال‌های واقعی درباره آب و هوا، راه‌ حلی برای یک معادله، زمان حرکت قطار، و غیره داریم می‌توانیم بر مدارک و کسب دانش تکیه کنیم. ما فقط باید به دنبال کسی باشیم که اطلاعات قابل اطمینانی در مورد این موضوع داشته باشد، که با توجه به سابقه‌ای بسیار خوب قابل استناد هم باشد، و سپس می‌توانیم با خوشحالی بر اطلاعات ارائه‌ شده تکیه کنیم. در حقیقت، بخش‌های بزرگی از دانش فردی ما مبتنی بر مدارک هستند – از سوی معلمان، دانشمندان، سیاستمداران و هم سن و سالان ما. به همین دلیل است که راهنمایی از ماشینی که برای دستور العملی سخت، اطلاعات توصیفی در مورد رستوران‌ها، یا پیش‌بینی‌های پیچیده محاسباتی مورد استفاده قرا می‌گیرد، منطقی به نظر می‌رسد.

با این حال، بسیاری از فلاسفه بر این باورند که شهادت اخلاقی کاملا متفاوت از شهادت غیر اخلاقی عمل می‌کند. دلیل مهم این است که به نظر می‌رسد دانش اخلاقی به این توانایی برای ارائه دلایل خوب برای محکومیت فرد نیاز دارد. به عنوان مثال، اگر شما بدانید که خوردن گوشت از نظر اخلاقی اشتباه است، پس می‌توانید توضیح دهید که چرا به این حیوان آسیب می‌رسانید، حیوانات چگونه درک و احساس می‌کنند و چرا ما باید با آسیب رساندن به موجوداتی که احساس و درک دارند آن‌ها را محدود کنیم و از بین ببریم، چیزهای دیگری هم در این دنیا وجود دارد. شما این نوع بینش و اطلاعات را صرفا با شنیدن این جمله که “خوردن گوشت اشتباه است” به دست نخواهید آورد. این دلیلی برای شک است، شک به این که شهادت اخلاقی به شما دانش می‌دهد.

در مقابل، اگر برنامه‌ی روتین و یا برنامه‌ی کاربردی قابل ‌اعتمادی داشته باشید، به شما می‌گوید که قطار بعدی ظرف ۳۰ دقیقه آینده ایستگاه را ترک خواهد کرد، پس تمام آن چیزی که باید بدانید را می‌دانید. بنابراین، وقتی به دنبال مشاوره اخلاقی هوش مصنوعی می‌گردیم، ابتدا باید بپرسیم دانش اخلاقی به چه چیزی نیاز دارد و چرا ما در وهله اول باورهای اخلاقی را شکل می‌دهیم. شاید آنچه که ما در اخلاق به دنبال آن هستیم فقط حقیقت نیست، بلکه درک هم هست- و به راحتی نمی‌تواند از طریق شهادت و مدرک به دست آید.

برای مثال، این به مقایسه موقعیت مطالعه درباره یادگیری شطرنج با برنامه‌ای کامپیوتری کمک می‌کند. هر فرد تازه‌کاری می‌تواند توصیه‌های این برنامه را بپذیرد و حرکات درخشانش را اجرا کند. اما اگر کاربر قادر به درک و توضیح این نباشند که چرا این حرکات در بازی منطقی (غیر از این دلیل سطحی که این حرکت بهترین حرکت موجودی است که از زمان قرار گیری آن در برنامه توسط شطرنج کامپیوتری استفاده می‌شود) هستند، چندان مفید نخواهد بود. اگر یادگیری در مورد اخلاق نیز به طور مشابه عمل کند، گرفتن تکه‌های کوچکی از اطلاعات مشاوران اخلاقی بالقوه برای کسب دانش اخلاقی کافی نخواهد بود. سپس چشم‌انداز توصیه اخلاقی هوش مصنوعی ممکن است در نطفه خفه شود. در اینجا به این نکته اشاره شده‌ است که مهارت اخلاقی مشاور اخلاقی ما، در مورد سوالاتی است که ما قادر به پاسخ‌گویی به آن‌ها نیستیم و بر اساس آن چیزی است که باید به مردم توصیه شود نه این که به آن باور داشته باشند.

با این سوالات در مورد اینکه چگونه به طور منطقی عقاید اخلاقی را در ذهن شکل دهیم، اکنون می‌توانیم سوال اساسی دوم را در مورد مشاوران اخلاقی هوش مصنوعی به چالش بکشیم: آیا ماشین‌ها در اخلاق خوب هستند؟ چندین روش وجود دارد که آن‌ها می‌توانند به ما توصیه اخلاقی بدهند؛ با این حال، در حال حاضر هیچ کدام از آن‌ها بدون مشکل نیستند.

ابتدا فرض کنید که ما می‌توانیم مشاوران هوش مصنوعی را از نظر اخلاقی با خود همسو کنیم. این ماشین‌ها می‌توانند به ما بگویند که چه چیزهایی را براساس اصول اخلاقی و ارزش‌هایی که ما برای آن‌ها فراهم می‌کنیم، باور کنیم. برای مثال، فرض کنید که شما گیاهخوارید و به دنبال وعده‌ی غذایی هستید. سرویس‌های نقشه‌برداری همراه می‌توانند گزینه‌هایی را برای جستجوی رستوران‌های گیاهی ارائه کنند. به عنوان مثال، پروژه خوردن غذا از روی شفقت انسانی برنامه‌ی کاربردی را برای تلفن همراه فراهم می‌کند که به جستجو گزینه‌های مناسب با پروژه خوردن غذا از روی شفقت (وگان، گیاهخوار و انسان دوستی) کمک می‌کند. این به نوعی هم تراز کردن اخلاقیات با مشاوره هوش مصنوعی است. این دستگاه به کسانی کمک می‌کند که می‌خواهند “گیاه‌خواری” را به عنوان ارزشی اخلاقی در بین مردم ترویج کنند. این ارزش در حال حاضر از سوی طراحان این برنامه تنظیم شده‌ است. علاوه بر این، این دستگاه قرار است به عنوان عامل اجرایی این ارزش برای گیاه‌خواری مورد استفاده قرار گیرد. به عنوان مثال، گیاه‌خواری ممکن است به عنوان در دسترس بودن وعده‌های غذایی عاری از گوشت امکان پذیر و در رستوران تعریف شود (گرچه سایر عوامل اجرایی هم ممکن است، در این عملیات سهیم شوند و امکان اجرایی شدن آن را افزایش دهند، در زیر خواهیم دید).

به نظر می‌رسد مشاوران هوش مصنوعی با هدفی مشخص، به تصمیم‌گیری اخلاقی ما کمک می‌کنند. این امر به این دلیل است که تصمیم‌گیری صحیح اخلاقی اغلب مستلزم ارزیابی دقیق اطلاعات غیر اخلاقی برای بررسی این مهم است که آیا ارزشی اخلاقی در مقداری معین اعمال می‌شود یا نه. گوشت را به شکلی انسانی به عنوان یک مقدار در نظر بگیرید. جدا از این که پرسیدن آیا این یک مقدار است یا نه، باید پردازشگر خوبی برای چنین اطلاعاتی باشید. محصول از کجا می‌آید؟ شرایط کاری در آن رستوران چیست؟ ماشین‌ها در پردازش اطلاعات خوب هستند. با توجه به ارزش‌های اخلاقی عملیاتی شده، این شکل از توصیه‌های اخلاقی هوش مصنوعی می‌تواند به خوبی اجرا شود.

با این حال، مشاوران ساختگی از نظر اخلاقی محدودیت‌های مهمی دارند. نخست، آن‌ها تا حدی سطحی عمل می‌کنند. کشف اصول اخلاقی درست و ارزش‌های اخلاقی، بخش دشوار تصمیم‌گیری اخلاقی است. این قسمت هنوز باید از سوی انسان‌ها انجام شود. به عنوان مثال، در بالا، ما تصور می‌کنیم که “گیاه‌خواری” یا “خوراک از روی شفقت انسانی” از ارزش‌ها هستند. اما آیا آن‌ها واقعا ارزش اخلاقی هستند؟ مشاوران هوش مصنوعی همگرا با اخلاق به طور کامل در پاسخ به چنین سوالاتی به ما تکیه می‌کنند. بنابراین، در رویکردی بالا به پایین برای تامین اطلاعاتی مشاوران اخلاقی هوش مصنوعی با ورودی اخلاقی، ما به قضاوت‌های اخلاقی ضعیف و مورد مناقشه خودمان تکیه می‌کنیم. این چیزی است که ما می‌خواستیم از آن اجتناب کنیم.

علاوه بر این، عملیاتی شدن ارزش‌ها یا اصول اخلاقی وظیفه‌ای اخلاقی در تصمیم‌گیری اخلاقی است. دوباره ” گیاهخوار” را در نظر بگیرید. آیا باید آن را به عنوان “وعده‌های غذایی عاری از گوشت” به عنوان “رستوران‌های عاری از گوشت”، یا حتی به عنوان “هیچ حیوانی در تولید غذا صدمه نبیند” عملیاتی کنیم؟ ” هر هوش مصنوعی مشاور از نظر اخلاقی باید پاسخ این سوالات را داشته باشد. با این حال، بازهم، از آنجایی که مشاوران منطبق بر اخلاق از نظر اخلاقی نمی‌توانند با کارهای عملیاتی شده خود توسعه پیدا کنند، با این حال پاسخ‌گوی سوالات ما خواهند بود.

محدودیت مشاوران منطبق بر اخلاق

محدودیت مشاوران هوش مصنوعی منطبق بر اخلاق، مسئله‌ی عملی ضروری را نیز به وجود می‌آورند. از دیدگاه عملی، تصمیمات درباره ارزش‌ها و عملیاتی شدن آن‌ها از سوی طراحان ماشین اتخاذ می‌شوند. پذیرش راهنمایی آن‌ها به معنای خرید در محیط‌های اخلاقی از پیش تعیین شده است. این تنظیمات ممکن است با ذهن شما همخوانی نداشته باشند، و حتی ممکن است تا حدی مبهم باشند به طوری که هیچ راهی برای یافتن این که چگونه مقادیر ویژه مورد استفاده قرار گرفته‌اند، نداشته باشید. این امر مستلزم پذیرش ارزش‌های از پیش تنظیم شده با اعتمادی کورکورانه است. این مشکل در حال حاضر در دستگاه‌هایی وجود دارد که توصیه‌های جدا از اخلاق، مانند خدمات نقشه‌برداری را ارائه می‌دهند. به عنوان مثال، هنگامی که شما از گوشی خود برای رسیدن به نزدیک‌ترین ایستگاه قطار استفاده می‌کنید، دستگاه باید بر مفروضات مختلف در مورد مسیری که شما می‌توانید به ایستگاه قطار برسید استناد کند و همچنین ممکن است منافع تجاری تامین ‌کننده این خدمات را نیز مد نظر قرار دهد. با این حال، ما باید پاسخ اخلاقی درست را درخواست کنیم، نه اینکه طراحان این فن‌آوری‌ها چنین چیزی را در نظر بگیرند.

ممکن است بر این محدودیت‌های عملی با اجازه دادن به کاربران در ورودی ارزش‌های خود و تصمیم‌گیری درباره خودشان، غلبه کنیم. به عنوان مثال، این وسیله ممکن است از کاربران مجموعه‌ای از سوالات را برای تعیین دیدگاه‌های اخلاقی آن‌ها سوال کند و همچنین به آن‌ها نیاز دارد تا دقیقا هر اولویت اخلاقی را تعیین کند. برای نمونه، فرد گیاهخوار باید تصمیم بگیرد که آیا “گیاه‌خواری” را نسبت به “وعده‌های غذایی عاری از گوشت” یا شامل “رستوران‌های عاری از گوشت” بودن درک می‌کند یا نه. این کار خود به ما نوعی مشاوران اخلاقی شخصیتی می‌بخشد که می‌توانند به ما کمک کنند تا به طور مداوم با قوانین اخلاقی و درست خودمان زندگی کنیم.

با این حال، مشخص نیست که مشخص کردن ارزش‌های فردی ما چگونه است، و عملیاتی کردن آن‌ها تصمیم اخلاقی ما را به جای کمک به افراد برای راضی کردن اولویت‌های خود به طور پیوسته بهبود می‌بخشد یا نه. اولویت‌های شخصی ما نباید تنها چیزی باشد که به آن اهمیت می‌دهیم، تا مبادا فراموش کنیم که چرا ما در وهله اول به دنبال ساخت مشاوره اخلاقی هوش مصنوعی هستیم. کل پروژه به دنبال بهبود تصمیم‌گیری اخلاقی ما است و پیش‌فرض این است که اخلاقیات بیشتری در مقایسه با ترجیحات و اولویت‌های صرف وجود دارد زیرا فرض بر این است که حقیقت اخلاقی وجود دارد.

بنابراین، مشاوران اخلاقی همسو با اخلاق، به تنهایی قادر به تحقق رویاهای دیوانه‌وار این ماشین در مورد پیشرفت اخلاقی نیستند. ما باید آن را یک قدم جلوتر ببریم. برای بهره‌مند شدن کامل از توصیه‌های اخلاقی هوش مصنوعی، ما به اخلاقیات قبلی نیاز داریم: بینش در حوزه ارزش‌های اخلاقی ارائه ‌شده از سوی ماشین‌ها. اگر ماشین‌ها قادر بودند حقیقت اخلاقی را خودشان کشف کنند، مشاوران هوش مصنوعی خردمندانه عمل می‌کردند (البته، این امر مستلزم آن است که حقیقت اخلاقی وجود داشته باشد. پس در نتیجه، کل ایده مشاوره اخلاقی به این فرض بستگی دارد، پس بگذارید آن را بدیهی فرض کنیم).

چگونه مشاور اخلاقی هوش مصنوعی می‌تواند از نظر اخلاقی هوشمندانه عمل کند؟ علاوه بر این، ما محدودیت‌های استفاده از رویکرد بالا به پایین را در توصیه‌های اخلاقی دیده‌ایم (جایی که حتما به یاد خواهید آورد، ما انسان‌ها اصول اخلاقی را ارائه می‌کنیم و ماشین‌ها آن‌ها را اعمال می‌کنند). مسیری امیدبخش به اصول اخلاقی سابق، از طریق رویکرد پایین به بالا انجام می‌شود: ماشین یادگیری، مشاوری ساختگی است که از نظر اخلاقی با اهداف استخراج اصول اخلاقی و ارزش‌های گرفته ‌شده از داده‌های آموزشی و جمع‌آوری ‌شده از متون تاریخی، بررسی واکنش‌ها و در نهایت، مشاهدات عمل می‌کند. ما می‌توانیم این اصول و ارزش‌ها را یاد بگیریم و در نهایت به قضاوت اخلاقی بهتری برسیم.

برای اطمینان کامل به خروجی مشاور مبتنی بر درک اخلاقی، باید فرض کنیم که حقیقت اخلاقی به طریقی در حال صریح یا به طور ضمنی منعکس می‌شود که در آثار مصنوعی رفتار انسانی نمایان می‌شود و می‌تواند به عنوان داده‌های آموزشی مورد استفاده قرار گیرد. آنچه بشریت انجام داده و یا گفته می‌شود حاوی هسته‌های حقیقت اخلاقی است و ماشین باید آن را تشخیص دهد. انواع مختلفی از روند یادگیری، بسته به نوع داده‌ای که در نظر گرفته می‌شود، امکان پذیر است. برای مثال، آموزش ماشین می‌تواند از اطلاعات تاریخی یا پاسخ‌های فعلی استفاده کند.

با این حال، مشکل این فرض این است که سابقه اخلاقی ما بسیار بد است. به هر حال، به همین دلیل است که ما به دنبال مشاوران اخلاقی هوش مصنوعی در وهله اول هستیم. چون هر دانشمند کامپیوتری به شما می‌گوید که اگر زباله را در سیستمی کامپیوتری قرار دهید، زباله استخراج می‌کنید. در تاریخ اخلاقی انسان، زباله‌های زیادی وجود دارد: انسان‌ها آن‌ها را قابل ‌قبول یافتند تا همنوعان خود را با بردگی و فریب برای منفعت شخصی، بدرفتاری با زنان، نابود کردن کل مردم، مورد هدف قرار دهند. به نظر می‌رسد که مشاوران اخلاقی آینده ما باید از چنین مثال‌های بدی درس بگیرند.

علاوه بر این، امیدواریم که اشتباهات افراد و حتی گروه‌ها در مجموع (شاید تاریخ نشان‌دهنده گرایش قابل‌توجه به “ارزش‌های روشن‌گری” باشد) تعدیل شوند، هنوز سوالی درباره انتخاب انواع داده‌ها برای آموزش مشاوران هوش مصنوعی خردمندانه ما وجود دارد. مردم از نظر اخلاقی تنبل هستند – اقدامات آن‌ها با قضاوت اخلاقی آن‌ها همخوانی ندارد. این نشان می‌دهد که ما باید بجای اعمال داده‌های آموزشی مناسب برای مشاوران هوش مصنوعی، بر روی قضاوت اخلاقی تمرکز کنیم. هر چه باشد، این احتمال وجود دارد که مردم صادقانه قضاوت کنند که فریب دادن نادرست است، در حالی که آن‌ها در برابر رفتار محتاطانه و تمایلات خودخواهانه در رفتار خود تسلیم می‌شوند. پس از آن، احکام  بیشتر منعکس کننده حقیقت اخلاقی می‌شوند. اما از کجا می‌توانیم اطلاعات آموزشی کافی را به بدست ‌آوریم؟ و کدام عقاید اخلاقی را باید تحلیل کنیم؟ برای اینکه ما به منبع اطلاعاتی خود اعتماد داریم، در حالی که نباید چنین باشد. این احتمال وجود دارد که خطری وجود در این میان باشد و مشکل زباله‌های درونی و زباله‌های بیرونی دوباره از نو ایجاد شوند.

شاید بهترین هدف ما این باشد که ماشین را با نظرات اخلاقی و با دقت از سوی استادان اخلاق آموزش دهیم، به اضافه تمام اصول فلسفه اخلاقی آکادمیک (من می‌گویم که این آموزش از سوی افرادی چون فیلسوفان اخلاقی انجام شود، اینطور نیست؟) حداقل یک نفر ممکن است فکر کند که این نظرات به دقت ارزیابی شده‌اند و شاید این کار شانس حضور در این مسیر را افزایش دهد. برخی از اصولی که این دستگاه با تجزیه و تحلیل این اطلاعات به دست خواهد آورد باید به ما اطلاع داده شود (که می‌تواند به عنوان یک تاییدیه عمل کند که دستگاه در مسیر درستی حرکت می‌کند). علاوه بر این، ممکن است امیدوار باشیم که ماشین‌ها کشف کنند و در این  محفل بزرگ عقیده اخلاقی انسانی، اصول اخلاقی کشف نشده را کشف کنند.

با این حال، هنگامی که مشاور هوش مصنوعی و اخلاقی ما، ما را با چنین اصول جدیدی آشنا می‌کند در نگاه اول، به نظر می‌رسد چیز خوبی باشد، اما ما را با دو مشکل اساسی دیگر روبرو می‌کند. نخست این که، اصول جدید مشکلاتی را در مورد اینکه آیا ما قادر خواهیم بود آن‌ها را درک کنیم یا خیر به وجود می‌آورد، و اینکه آیا این ماشین می‌تواند چگونگی رسیدن به اهداف تعریف شده را توضیح دهد (که ممکن است در پرتو بحث قبلی در مورد محدودیت‌های مستندات اخلاقی مورد نیاز باشد). دوم، تصمیم‌گیری در مورد پذیرش اصول اخلاقی جدید این ماشین، ما را وارد معضلی بزرگ می‌کند. یا ما می‌توانیم قابلیت اطمینان این اصول جدید را ارزیابی کنیم، یا نمی‌توانیم. اگر بتوانیم، پس ما به حقیقت اخلاقی خود دسترسی داریم و به توصیه اخلاقی ماشین نیازی نداریم. اگر نتوانیم، پس ما به کمک آن نیاز داریم، در این صورت پس ما هیچ دسترسی به حقیقت اخلاقی نداریم و بنابراین نمی‌توانیم ارزیابی کنیم که آیا باید به دستگاه اعتماد کنیم یا خیر. در هر صورت، به نظر می‌رسد که هیچ شغلی برای مشاوران ماشین اخلاقی بشر برای انجام این کار وجود ندارد.

مشاوره اخلاقی هوش مصنوعی - مشاور هوش مصنوعی - هوش مصنوعی

به خاطر این مشکلات، به نظر می‌رسد که مشاوران اخلاقی ما مشتاقه ما را به سوی قهقرا سوق می‌دهند – آن‌ها فقط از اعتبار کافی نزد ما دارا نیستند تا به طور منطقی به آن‌ها تکیه کنیم و حقیقت اخلاقی را کشف کنند. البته ممکن است ما به استفاده از مشاور اخلاقی هوش مصنوعی فقط به این دلیل که سبب می‌شود احساس خوبی داشته باشیم و یا به این دلیل که نیازهای ما را برآورده می‌کند، پافشاری کنیم. این برای من تعجب‌آور نیست. برای مثال، مشاوران و طراحان به کمی بیش از این واقعیت تکیه دارند چرا که مشتریان قبلی از چنین وضعیت تخصصی رضایت داشتند. اما باید استانداردهای سختگیرانه‌تری را در مورد اخلاق برای این ماشین‌ها اعمال کنیم و اطمینان حاصل کنیم که هوش مصنوعی مشاور قبل از اینکه آن‌ها را با دیدگاه اخلاقی خود به دیگران آموزش دهد، خوب عمل می‌کند.

بنابراین، ما باید با امید استفاده از ماشین‌آلات برای دستیابی به حقیقت اخلاقی و دانش به طور جدی، خداحافظی کنیم. با این وجود، ممکن است نقش محدودی برای برای حضور ماشین‌ها وجود داشته باشد. آن‌ها می‌توانند از اقتصاد اخلاقی داخلی ما با آگاه کردن ما از ناهماهنگی در تفکر اخلاقی ما مراقبت کنند در نتیجه شانس ما را برای ایجاد اشتباهات اخلاقی در تفکراتمان محدود می‌کنند. در همه چیز این محرز است که مجموعه‌ای از اعتقادات اخلاقی ثابت بهتر از مجموعه‌ای از ایده‌های متناقض است، حداقل برای کسی که فکر می‌کند حقیقت اخلاقی هنوز وجود دارد و باید کشف شود چنین است.

کنترل‌ کننده ثبات هوش مصنوعی

بر این اساس، ما می‌توانیم از ماشین‌های با ثبات اخلاقی هوش مصنوعی استفاده کنیم. کنترل‌ کننده ثبات اخلاقی منحصربفرد شما می‌تواند برایتان فهرستی از تعهدات اخلاقی ایجاد کند و سپس در مورد هر گونه مغایرتی به شما اطلاع دهد. برای مثال، ممکن است باور داشته باشید که نباید به انسان آسیب برسانید (A). و همچنین ممکن است فکر کنید که خوردن گوشت مجاز است (B). فرض کنید که شما هم چنین باور دارید که حیوانات موجوداتی دارای احساس و درک هستند. واضح است که این مجموعه‌ای از باورهای متناقض است: شما نمی‌توانید به طور مداوم باور A و B را در پرتوی باورهای پس‌زمینه خود حفظ کنید. کنترل‌ کننده ثبات هوش مصنوعی می‌تواند شما را از این حقیقت آگاه کند که ممکن است شما به سوی تجدید نظر در باورهای اخلاقی خود سوق پیدا کنید، در نتیجه بهبود اقتصاد اخلاقی داخلی در شما شکل می‌گیرد.

اگر چه کنترل‌ کننده ثبات اخلاقی هوش مصنوعی در کاربرد محدود خواهد شد (به ما نشان خواهد داد که در کجا تناقض‌ها بوجود می‌آیند، اما به ما نخواهد گفت که از کدام باورها باید صرف نظر کنیم)، با این حال استفاده منطقی از مشاوران اخلاقی هوش مصنوعی را نشان خواهد داد. بهتر است انتخاب آخر را داشته باشیم که کدام نظرات را حفظ کنیم و کدام را کنار بگذاریم، و این چیز خوبی است زیرا ما استقلال را حفظ خواهیم کرد تا نظر خود را شکل دهیم.

مشاوره اخلاقی هوش مصنوعی - هوش مصنوعی - مشاور هوش مصنوعی

اکنون وقت آن است که نتیجه‌گیری کنیم. هر دو از نظر اخلاقی همسو شده و باید دانست که از نظر اخلاقی، مشاوران هوش مصنوعی از تخصص اخلاقی دور هستند. ما یا باید آن‌ها را با اصول اخلاقی خودمان تامین کنیم، که ممکن است قضاوت اخلاقی ما ناقص باشد، و یا باید آن‌ها را با کشف حقیقت اخلاقی به اثبات رساند که خود مشکل‌ساز است، زیرا ما دلایل کمی داریم که باور کنیم آن‌ها در یافتن حقیقت اخلاقی از ما بهتر هستند. در بهترین حالت، باید از کنترل‌ کننده ثبات هوش مصنوعی استفاده کنیم، که می‌تواند به ما کمک کند اقتصاد اخلاقی داخلی مان را رشد دهیم و در عین حال آنچه را که فکر می‌کردیم، درست است رها کنیم.

از بسیاری جهات، دلایلی هست که برای مدتی باید به روش مردمی برای اتخاذ تصمیمات اخلاقی پیش برویم. با این حال نباید فراموش کنیم که مشاور اخلاقی هوش مصنوعی ممکن است به طور غیر مستقیم مفید باشد. فرآیند تلاش برای ایجاد هوش مصنوعی مشاور ممکن است چیزی در مورد اخلاقیات ما به ما یاد دهد وقتی که باید در مورد اصول اخلاقی خود شفاف باشیم. علاوه بر این، خروجی آن‌ها، حتی اگر ناقص باشد، ممکن است ما را ترغیب کند که به طور جدی در مورد آن فکر کنیم، که ممکن است منجر به درک و دانش شود. اخلاقیات هم همین طور است، اما بهبود آن ممکن است بهتر باشد.

شهین غمگسار
مترجم هستم. با واژه‌ها سروکار دارم. و گاهی می نویسم.