هوش مصنوعی سالهاست که فلاسفه علم و محققان و نظریهپردازان دیگر شاخهها را درگیر خود کرده، حال ورود هوش مصنوعی به حوزه اخلاق و اصول اخلاقی در مقام یک مشاور. و این نگرانیهای تازهای را رقم زده است. مشاوره هوش مصنوعی با توجه به اصول اخلاقی تا چه اندازه میتواند به بهبود اصول اخلاقی بشر با سابقهای اسفبار و ناخوشایند کمک کند؟ و یا میتوان سوال را به شکل دیگری پرسید: انسان مملو از تناقضهای اخلاقی است که به سبب قید و بندهای دینی و باورهایی است که با مناطق مختلف جغرافیایی تغییر میکند، حال انسانی که با چنین اصول اخلاقی نابسامانی روبرو است، چطور میتواند هوش مصنوعی را به عنوان مشاور اخلاقی خلق کند با این هدف که او میتواند اصول اخلاقی بشر را بهبود دهد؟ منبع اطلاعاتی مشاور اخلاقی هوش مصنوعی چه باید باشد؟ به حقیقت انسان تا چه اندازه نسبت به اصول اخلاقی شناخت دارد؟ اخلاق در منظر انسان به چه معناست؟ تمامی این سوالها از سوی فیلسوف، معرفت شناس و روانشناس اخلاق و فرا اخلاق مایکل کلِنک مورد بررسی قرار گرفتهاند. در ادامه با آراد مگ همراه باشید.
هوش مصنوعی و مشاوره اخلاقی
من در دو شهر مختلف زندگی و کار میکنم؛ همیشه در حال رفت و آمد هستم، به طور مداوم از تلفن خودم برای گرفتن مشاوره و پرسیدن سوال استفاده میکنم: مثلا، قطار بعدی کی میرسد؟ آیا باید از اتوبوس استفاده کنم، یا میتوانم کمی پیاده روی کنم و هنوز وقت دارم که به نخستین جلسه کاری خود برسم؟ از امکانات تلفن خودم برای پیدا کردن مکانهایی برای غذا خوردن و چیزهای دیگر استفاده میکنم و اجازه میدهم او مرا هدایت کند، و اعتراف میکنم که تقریبا برای هر سوالی، نخستین چیزی که به ذهنم میرسد این است که از اینترنت تلفن خود کمک بگیرم و قطعا بهترین پاسخ را خواهد داد.
حمایت من از هوش مصنوعی، سبب شده است تا در شرکت خوبی مشغول به کار شوم. متخصصان حرفهای هم که با مسائل بسیار مهمی سروکار دارند همین کار را انجام میدهند، برای نمونه وقتی که به هوش مصنوعی گوش میدهند تا تشخیص دهند چه کسی احتمال ابتلا به سرطان را دارد و یا وام خود را پس میدهد یا به زندان خواهد رفت و غیره. همه اینها بسیار خوب هستند، البته تا جایی که نیاز داریم و بتوانیم به طور واضح سوالهای واقعی و کاملا روشنی را که پاسخهای قابل محاسبه دارند حل کنیم.
حالا برنامهی جدید و شگفت انگیزی را تصور کنید. برنامهای که به شما میگوید که کارهایی چون دروغ گفتن به یکی از دوستان درباره ظاهرشان، گرفتن بلیط هواپیما در زمان گرم شدن کره زمین، یا اینکه آیا شما باید به دلایل انسانی به هم نوع خود و دیگر موجودات کمک کنید و گیاهخوار بودن برایتان مجاز هست یا نه. مشاوری اخلاقی هوش مصنوعی، شما را از طریق پیچ و خمهای روحی زندگی روزمره راهنمایی میکند. با فشار دادن یک دکمه، شما باید سوالات اخلاقی خود را به طور کامل حل کنید؛ اگر بسیاری به این برنامه گوش دهند، ممکن است در مسیر رسیدن به جامعهای بهتر قرار بگیریم.

تلاشهای قاطع برای ایجاد چنین مشاوران اخلاقی برای هوش مصنوعی پیش از این در حال انجام است. برخی از محققان، مشاوران اخلاقی هوش مصنوعی را به عنوان بهبودهای گسترده ضعفهای انسانها در نظر میگیرند، و آن را به عنوان بهترین فرصت برای جلوگیری از انقراض زندگی انسان به دست خود میدانند. برخی از محققان خواهان این هستند که ما به ماشینهایی که توصیه اخلاقی میکنند گوش دهیم و این را نوعی باید تلقی میکنند. اما آیا ما باید این کار را بکنیم؟
ضروری است که پیشنهاداتی را برای توصیههای اخلاقی هوش مصنوعی به طور جدی مطرح کنیم زیرا نیاز واقعی به بهبود احکام اخلاقی ما وجود دارد. نه تنها برخی اقدامات ما غالبا از نظر اخلاقی نادرست هستند، بلکه تحقیقات تجربی بسیاری این مشکلات قابل توجه را با تصمیمگیری اخلاقی به طور مستند ارائه کردهاند. برای مثال، انسانها به طور معمول به اعضای گروه خود نسبت به افراد خارج از گروه بیشتر علاقهمند هستند، و بسیاری از اخلاق گرایان معتقد هستند که این ارجحیت را نمی توان از لحاظ اخلاقی مورد دفاع قرار داد. تعصب نژادی نیز از نظر اخلاقی نامشروع است، اما به طور ضمنی بر افرادی تاثیر دارد که صریحا اصول برابری را تایید میکنند. به طور مشابه، فاکتورهای موقعیتی مثل این که شما در حالت خوب، داغ یا سرد، خسته یا بیدار، بیزار و یا علاقهمند هستید، نشان دادهاند که قضاوت اخلاقی مردم را تحت تاثیر و تغییر قرار میدهد. این امر نگران کننده است. باورهای اخلاقی ما باید تنها به چیزهایی حساس باشند که از لحاظ اخلاقی مهم هستند، و اخلاق گرایان برای توضیح این که چرا چنین عوامل موقعیتی باید بر قضاوت اخلاقی تاثیر بگذارند، سخت تلاش میکنند. این باعث میشود که چشمانداز مشاوران اخلاقی هوش مصنوعی به طور جدی مورد توجه گرفته شود.
چشمانداز مشاور اخلاقی هوش مصنوعی
چشمانداز مشاوران اخلاقی هوش مصنوعی به دو سوال اصلی بستگی دارد: آیا ما باید از هر کسی مشاوره اخلاقی بگیریم؟ و اگر اینطور است، آیا ماشینها در اصول اخلاقی خوب هستند (یا حداقل، بهتر از ما هستند، اگر چنین باشد، بنابراین منطقی است که ما به آنها گوش دهیم)؟ من فقط به طور مختصر نگران سوال اول هستم و بعد به سوال دوم رجوع میکنم. خواهیم دید که قبل از اینکه بتوانیم توصیههای اخلاقی هوش مصنوعی را بپذیریم، باید بر چندین مانع فنی و عملی غلبه کنیم.
برای شروع، مسئلهای اساسی برای گرفتن توصیههای اخلاقی از هر کسی وجود دارد که باید در هنگام ارزیابی مشاوران اخلاقی هوش مصنوعی در آینده، آنها را مد نظر داشته باشیم. وقتی سوالهای واقعی درباره آب و هوا، راه حلی برای یک معادله، زمان حرکت قطار، و غیره داریم میتوانیم بر مدارک و کسب دانش تکیه کنیم. ما فقط باید به دنبال کسی باشیم که اطلاعات قابل اطمینانی در مورد این موضوع داشته باشد، که با توجه به سابقهای بسیار خوب قابل استناد هم باشد، و سپس میتوانیم با خوشحالی بر اطلاعات ارائه شده تکیه کنیم. در حقیقت، بخشهای بزرگی از دانش فردی ما مبتنی بر مدارک هستند – از سوی معلمان، دانشمندان، سیاستمداران و هم سن و سالان ما. به همین دلیل است که راهنمایی از ماشینی که برای دستور العملی سخت، اطلاعات توصیفی در مورد رستورانها، یا پیشبینیهای پیچیده محاسباتی مورد استفاده قرا میگیرد، منطقی به نظر میرسد.
با این حال، بسیاری از فلاسفه بر این باورند که شهادت اخلاقی کاملا متفاوت از شهادت غیر اخلاقی عمل میکند. دلیل مهم این است که به نظر میرسد دانش اخلاقی به این توانایی برای ارائه دلایل خوب برای محکومیت فرد نیاز دارد. به عنوان مثال، اگر شما بدانید که خوردن گوشت از نظر اخلاقی اشتباه است، پس میتوانید توضیح دهید که چرا به این حیوان آسیب میرسانید، حیوانات چگونه درک و احساس میکنند و چرا ما باید با آسیب رساندن به موجوداتی که احساس و درک دارند آنها را محدود کنیم و از بین ببریم، چیزهای دیگری هم در این دنیا وجود دارد. شما این نوع بینش و اطلاعات را صرفا با شنیدن این جمله که “خوردن گوشت اشتباه است” به دست نخواهید آورد. این دلیلی برای شک است، شک به این که شهادت اخلاقی به شما دانش میدهد.
در مقابل، اگر برنامهی روتین و یا برنامهی کاربردی قابل اعتمادی داشته باشید، به شما میگوید که قطار بعدی ظرف ۳۰ دقیقه آینده ایستگاه را ترک خواهد کرد، پس تمام آن چیزی که باید بدانید را میدانید. بنابراین، وقتی به دنبال مشاوره اخلاقی هوش مصنوعی میگردیم، ابتدا باید بپرسیم دانش اخلاقی به چه چیزی نیاز دارد و چرا ما در وهله اول باورهای اخلاقی را شکل میدهیم. شاید آنچه که ما در اخلاق به دنبال آن هستیم فقط حقیقت نیست، بلکه درک هم هست- و به راحتی نمیتواند از طریق شهادت و مدرک به دست آید.
برای مثال، این به مقایسه موقعیت مطالعه درباره یادگیری شطرنج با برنامهای کامپیوتری کمک میکند. هر فرد تازهکاری میتواند توصیههای این برنامه را بپذیرد و حرکات درخشانش را اجرا کند. اما اگر کاربر قادر به درک و توضیح این نباشند که چرا این حرکات در بازی منطقی (غیر از این دلیل سطحی که این حرکت بهترین حرکت موجودی است که از زمان قرار گیری آن در برنامه توسط شطرنج کامپیوتری استفاده میشود) هستند، چندان مفید نخواهد بود. اگر یادگیری در مورد اخلاق نیز به طور مشابه عمل کند، گرفتن تکههای کوچکی از اطلاعات مشاوران اخلاقی بالقوه برای کسب دانش اخلاقی کافی نخواهد بود. سپس چشمانداز توصیه اخلاقی هوش مصنوعی ممکن است در نطفه خفه شود. در اینجا به این نکته اشاره شده است که مهارت اخلاقی مشاور اخلاقی ما، در مورد سوالاتی است که ما قادر به پاسخگویی به آنها نیستیم و بر اساس آن چیزی است که باید به مردم توصیه شود نه این که به آن باور داشته باشند.
با این سوالات در مورد اینکه چگونه به طور منطقی عقاید اخلاقی را در ذهن شکل دهیم، اکنون میتوانیم سوال اساسی دوم را در مورد مشاوران اخلاقی هوش مصنوعی به چالش بکشیم: آیا ماشینها در اخلاق خوب هستند؟ چندین روش وجود دارد که آنها میتوانند به ما توصیه اخلاقی بدهند؛ با این حال، در حال حاضر هیچ کدام از آنها بدون مشکل نیستند.
ابتدا فرض کنید که ما میتوانیم مشاوران هوش مصنوعی را از نظر اخلاقی با خود همسو کنیم. این ماشینها میتوانند به ما بگویند که چه چیزهایی را براساس اصول اخلاقی و ارزشهایی که ما برای آنها فراهم میکنیم، باور کنیم. برای مثال، فرض کنید که شما گیاهخوارید و به دنبال وعدهی غذایی هستید. سرویسهای نقشهبرداری همراه میتوانند گزینههایی را برای جستجوی رستورانهای گیاهی ارائه کنند. به عنوان مثال، پروژه خوردن غذا از روی شفقت انسانی برنامهی کاربردی را برای تلفن همراه فراهم میکند که به جستجو گزینههای مناسب با پروژه خوردن غذا از روی شفقت (وگان، گیاهخوار و انسان دوستی) کمک میکند. این به نوعی هم تراز کردن اخلاقیات با مشاوره هوش مصنوعی است. این دستگاه به کسانی کمک میکند که میخواهند “گیاهخواری” را به عنوان ارزشی اخلاقی در بین مردم ترویج کنند. این ارزش در حال حاضر از سوی طراحان این برنامه تنظیم شده است. علاوه بر این، این دستگاه قرار است به عنوان عامل اجرایی این ارزش برای گیاهخواری مورد استفاده قرار گیرد. به عنوان مثال، گیاهخواری ممکن است به عنوان در دسترس بودن وعدههای غذایی عاری از گوشت امکان پذیر و در رستوران تعریف شود (گرچه سایر عوامل اجرایی هم ممکن است، در این عملیات سهیم شوند و امکان اجرایی شدن آن را افزایش دهند، در زیر خواهیم دید).
به نظر میرسد مشاوران هوش مصنوعی با هدفی مشخص، به تصمیمگیری اخلاقی ما کمک میکنند. این امر به این دلیل است که تصمیمگیری صحیح اخلاقی اغلب مستلزم ارزیابی دقیق اطلاعات غیر اخلاقی برای بررسی این مهم است که آیا ارزشی اخلاقی در مقداری معین اعمال میشود یا نه. گوشت را به شکلی انسانی به عنوان یک مقدار در نظر بگیرید. جدا از این که پرسیدن آیا این یک مقدار است یا نه، باید پردازشگر خوبی برای چنین اطلاعاتی باشید. محصول از کجا میآید؟ شرایط کاری در آن رستوران چیست؟ ماشینها در پردازش اطلاعات خوب هستند. با توجه به ارزشهای اخلاقی عملیاتی شده، این شکل از توصیههای اخلاقی هوش مصنوعی میتواند به خوبی اجرا شود.
با این حال، مشاوران ساختگی از نظر اخلاقی محدودیتهای مهمی دارند. نخست، آنها تا حدی سطحی عمل میکنند. کشف اصول اخلاقی درست و ارزشهای اخلاقی، بخش دشوار تصمیمگیری اخلاقی است. این قسمت هنوز باید از سوی انسانها انجام شود. به عنوان مثال، در بالا، ما تصور میکنیم که “گیاهخواری” یا “خوراک از روی شفقت انسانی” از ارزشها هستند. اما آیا آنها واقعا ارزش اخلاقی هستند؟ مشاوران هوش مصنوعی همگرا با اخلاق به طور کامل در پاسخ به چنین سوالاتی به ما تکیه میکنند. بنابراین، در رویکردی بالا به پایین برای تامین اطلاعاتی مشاوران اخلاقی هوش مصنوعی با ورودی اخلاقی، ما به قضاوتهای اخلاقی ضعیف و مورد مناقشه خودمان تکیه میکنیم. این چیزی است که ما میخواستیم از آن اجتناب کنیم.
علاوه بر این، عملیاتی شدن ارزشها یا اصول اخلاقی وظیفهای اخلاقی در تصمیمگیری اخلاقی است. دوباره ” گیاهخوار” را در نظر بگیرید. آیا باید آن را به عنوان “وعدههای غذایی عاری از گوشت” به عنوان “رستورانهای عاری از گوشت”، یا حتی به عنوان “هیچ حیوانی در تولید غذا صدمه نبیند” عملیاتی کنیم؟ ” هر هوش مصنوعی مشاور از نظر اخلاقی باید پاسخ این سوالات را داشته باشد. با این حال، بازهم، از آنجایی که مشاوران منطبق بر اخلاق از نظر اخلاقی نمیتوانند با کارهای عملیاتی شده خود توسعه پیدا کنند، با این حال پاسخگوی سوالات ما خواهند بود.
محدودیت مشاوران منطبق بر اخلاق
محدودیت مشاوران هوش مصنوعی منطبق بر اخلاق، مسئلهی عملی ضروری را نیز به وجود میآورند. از دیدگاه عملی، تصمیمات درباره ارزشها و عملیاتی شدن آنها از سوی طراحان ماشین اتخاذ میشوند. پذیرش راهنمایی آنها به معنای خرید در محیطهای اخلاقی از پیش تعیین شده است. این تنظیمات ممکن است با ذهن شما همخوانی نداشته باشند، و حتی ممکن است تا حدی مبهم باشند به طوری که هیچ راهی برای یافتن این که چگونه مقادیر ویژه مورد استفاده قرار گرفتهاند، نداشته باشید. این امر مستلزم پذیرش ارزشهای از پیش تنظیم شده با اعتمادی کورکورانه است. این مشکل در حال حاضر در دستگاههایی وجود دارد که توصیههای جدا از اخلاق، مانند خدمات نقشهبرداری را ارائه میدهند. به عنوان مثال، هنگامی که شما از گوشی خود برای رسیدن به نزدیکترین ایستگاه قطار استفاده میکنید، دستگاه باید بر مفروضات مختلف در مورد مسیری که شما میتوانید به ایستگاه قطار برسید استناد کند و همچنین ممکن است منافع تجاری تامین کننده این خدمات را نیز مد نظر قرار دهد. با این حال، ما باید پاسخ اخلاقی درست را درخواست کنیم، نه اینکه طراحان این فنآوریها چنین چیزی را در نظر بگیرند.
ممکن است بر این محدودیتهای عملی با اجازه دادن به کاربران در ورودی ارزشهای خود و تصمیمگیری درباره خودشان، غلبه کنیم. به عنوان مثال، این وسیله ممکن است از کاربران مجموعهای از سوالات را برای تعیین دیدگاههای اخلاقی آنها سوال کند و همچنین به آنها نیاز دارد تا دقیقا هر اولویت اخلاقی را تعیین کند. برای نمونه، فرد گیاهخوار باید تصمیم بگیرد که آیا “گیاهخواری” را نسبت به “وعدههای غذایی عاری از گوشت” یا شامل “رستورانهای عاری از گوشت” بودن درک میکند یا نه. این کار خود به ما نوعی مشاوران اخلاقی شخصیتی میبخشد که میتوانند به ما کمک کنند تا به طور مداوم با قوانین اخلاقی و درست خودمان زندگی کنیم.
با این حال، مشخص نیست که مشخص کردن ارزشهای فردی ما چگونه است، و عملیاتی کردن آنها تصمیم اخلاقی ما را به جای کمک به افراد برای راضی کردن اولویتهای خود به طور پیوسته بهبود میبخشد یا نه. اولویتهای شخصی ما نباید تنها چیزی باشد که به آن اهمیت میدهیم، تا مبادا فراموش کنیم که چرا ما در وهله اول به دنبال ساخت مشاوره اخلاقی هوش مصنوعی هستیم. کل پروژه به دنبال بهبود تصمیمگیری اخلاقی ما است و پیشفرض این است که اخلاقیات بیشتری در مقایسه با ترجیحات و اولویتهای صرف وجود دارد زیرا فرض بر این است که حقیقت اخلاقی وجود دارد.
بنابراین، مشاوران اخلاقی همسو با اخلاق، به تنهایی قادر به تحقق رویاهای دیوانهوار این ماشین در مورد پیشرفت اخلاقی نیستند. ما باید آن را یک قدم جلوتر ببریم. برای بهرهمند شدن کامل از توصیههای اخلاقی هوش مصنوعی، ما به اخلاقیات قبلی نیاز داریم: بینش در حوزه ارزشهای اخلاقی ارائه شده از سوی ماشینها. اگر ماشینها قادر بودند حقیقت اخلاقی را خودشان کشف کنند، مشاوران هوش مصنوعی خردمندانه عمل میکردند (البته، این امر مستلزم آن است که حقیقت اخلاقی وجود داشته باشد. پس در نتیجه، کل ایده مشاوره اخلاقی به این فرض بستگی دارد، پس بگذارید آن را بدیهی فرض کنیم).
چگونه مشاور اخلاقی هوش مصنوعی میتواند از نظر اخلاقی هوشمندانه عمل کند؟ علاوه بر این، ما محدودیتهای استفاده از رویکرد بالا به پایین را در توصیههای اخلاقی دیدهایم (جایی که حتما به یاد خواهید آورد، ما انسانها اصول اخلاقی را ارائه میکنیم و ماشینها آنها را اعمال میکنند). مسیری امیدبخش به اصول اخلاقی سابق، از طریق رویکرد پایین به بالا انجام میشود: ماشین یادگیری، مشاوری ساختگی است که از نظر اخلاقی با اهداف استخراج اصول اخلاقی و ارزشهای گرفته شده از دادههای آموزشی و جمعآوری شده از متون تاریخی، بررسی واکنشها و در نهایت، مشاهدات عمل میکند. ما میتوانیم این اصول و ارزشها را یاد بگیریم و در نهایت به قضاوت اخلاقی بهتری برسیم.
برای اطمینان کامل به خروجی مشاور مبتنی بر درک اخلاقی، باید فرض کنیم که حقیقت اخلاقی به طریقی در حال صریح یا به طور ضمنی منعکس میشود که در آثار مصنوعی رفتار انسانی نمایان میشود و میتواند به عنوان دادههای آموزشی مورد استفاده قرار گیرد. آنچه بشریت انجام داده و یا گفته میشود حاوی هستههای حقیقت اخلاقی است و ماشین باید آن را تشخیص دهد. انواع مختلفی از روند یادگیری، بسته به نوع دادهای که در نظر گرفته میشود، امکان پذیر است. برای مثال، آموزش ماشین میتواند از اطلاعات تاریخی یا پاسخهای فعلی استفاده کند.
با این حال، مشکل این فرض این است که سابقه اخلاقی ما بسیار بد است. به هر حال، به همین دلیل است که ما به دنبال مشاوران اخلاقی هوش مصنوعی در وهله اول هستیم. چون هر دانشمند کامپیوتری به شما میگوید که اگر زباله را در سیستمی کامپیوتری قرار دهید، زباله استخراج میکنید. در تاریخ اخلاقی انسان، زبالههای زیادی وجود دارد: انسانها آنها را قابل قبول یافتند تا همنوعان خود را با بردگی و فریب برای منفعت شخصی، بدرفتاری با زنان، نابود کردن کل مردم، مورد هدف قرار دهند. به نظر میرسد که مشاوران اخلاقی آینده ما باید از چنین مثالهای بدی درس بگیرند.
علاوه بر این، امیدواریم که اشتباهات افراد و حتی گروهها در مجموع (شاید تاریخ نشاندهنده گرایش قابلتوجه به “ارزشهای روشنگری” باشد) تعدیل شوند، هنوز سوالی درباره انتخاب انواع دادهها برای آموزش مشاوران هوش مصنوعی خردمندانه ما وجود دارد. مردم از نظر اخلاقی تنبل هستند – اقدامات آنها با قضاوت اخلاقی آنها همخوانی ندارد. این نشان میدهد که ما باید بجای اعمال دادههای آموزشی مناسب برای مشاوران هوش مصنوعی، بر روی قضاوت اخلاقی تمرکز کنیم. هر چه باشد، این احتمال وجود دارد که مردم صادقانه قضاوت کنند که فریب دادن نادرست است، در حالی که آنها در برابر رفتار محتاطانه و تمایلات خودخواهانه در رفتار خود تسلیم میشوند. پس از آن، احکام بیشتر منعکس کننده حقیقت اخلاقی میشوند. اما از کجا میتوانیم اطلاعات آموزشی کافی را به بدست آوریم؟ و کدام عقاید اخلاقی را باید تحلیل کنیم؟ برای اینکه ما به منبع اطلاعاتی خود اعتماد داریم، در حالی که نباید چنین باشد. این احتمال وجود دارد که خطری وجود در این میان باشد و مشکل زبالههای درونی و زبالههای بیرونی دوباره از نو ایجاد شوند.
شاید بهترین هدف ما این باشد که ماشین را با نظرات اخلاقی و با دقت از سوی استادان اخلاق آموزش دهیم، به اضافه تمام اصول فلسفه اخلاقی آکادمیک (من میگویم که این آموزش از سوی افرادی چون فیلسوفان اخلاقی انجام شود، اینطور نیست؟) حداقل یک نفر ممکن است فکر کند که این نظرات به دقت ارزیابی شدهاند و شاید این کار شانس حضور در این مسیر را افزایش دهد. برخی از اصولی که این دستگاه با تجزیه و تحلیل این اطلاعات به دست خواهد آورد باید به ما اطلاع داده شود (که میتواند به عنوان یک تاییدیه عمل کند که دستگاه در مسیر درستی حرکت میکند). علاوه بر این، ممکن است امیدوار باشیم که ماشینها کشف کنند و در این محفل بزرگ عقیده اخلاقی انسانی، اصول اخلاقی کشف نشده را کشف کنند.
با این حال، هنگامی که مشاور هوش مصنوعی و اخلاقی ما، ما را با چنین اصول جدیدی آشنا میکند در نگاه اول، به نظر میرسد چیز خوبی باشد، اما ما را با دو مشکل اساسی دیگر روبرو میکند. نخست این که، اصول جدید مشکلاتی را در مورد اینکه آیا ما قادر خواهیم بود آنها را درک کنیم یا خیر به وجود میآورد، و اینکه آیا این ماشین میتواند چگونگی رسیدن به اهداف تعریف شده را توضیح دهد (که ممکن است در پرتو بحث قبلی در مورد محدودیتهای مستندات اخلاقی مورد نیاز باشد). دوم، تصمیمگیری در مورد پذیرش اصول اخلاقی جدید این ماشین، ما را وارد معضلی بزرگ میکند. یا ما میتوانیم قابلیت اطمینان این اصول جدید را ارزیابی کنیم، یا نمیتوانیم. اگر بتوانیم، پس ما به حقیقت اخلاقی خود دسترسی داریم و به توصیه اخلاقی ماشین نیازی نداریم. اگر نتوانیم، پس ما به کمک آن نیاز داریم، در این صورت پس ما هیچ دسترسی به حقیقت اخلاقی نداریم و بنابراین نمیتوانیم ارزیابی کنیم که آیا باید به دستگاه اعتماد کنیم یا خیر. در هر صورت، به نظر میرسد که هیچ شغلی برای مشاوران ماشین اخلاقی بشر برای انجام این کار وجود ندارد.
به خاطر این مشکلات، به نظر میرسد که مشاوران اخلاقی ما مشتاقه ما را به سوی قهقرا سوق میدهند – آنها فقط از اعتبار کافی نزد ما دارا نیستند تا به طور منطقی به آنها تکیه کنیم و حقیقت اخلاقی را کشف کنند. البته ممکن است ما به استفاده از مشاور اخلاقی هوش مصنوعی فقط به این دلیل که سبب میشود احساس خوبی داشته باشیم و یا به این دلیل که نیازهای ما را برآورده میکند، پافشاری کنیم. این برای من تعجبآور نیست. برای مثال، مشاوران و طراحان به کمی بیش از این واقعیت تکیه دارند چرا که مشتریان قبلی از چنین وضعیت تخصصی رضایت داشتند. اما باید استانداردهای سختگیرانهتری را در مورد اخلاق برای این ماشینها اعمال کنیم و اطمینان حاصل کنیم که هوش مصنوعی مشاور قبل از اینکه آنها را با دیدگاه اخلاقی خود به دیگران آموزش دهد، خوب عمل میکند.
بنابراین، ما باید با امید استفاده از ماشینآلات برای دستیابی به حقیقت اخلاقی و دانش به طور جدی، خداحافظی کنیم. با این وجود، ممکن است نقش محدودی برای برای حضور ماشینها وجود داشته باشد. آنها میتوانند از اقتصاد اخلاقی داخلی ما با آگاه کردن ما از ناهماهنگی در تفکر اخلاقی ما مراقبت کنند در نتیجه شانس ما را برای ایجاد اشتباهات اخلاقی در تفکراتمان محدود میکنند. در همه چیز این محرز است که مجموعهای از اعتقادات اخلاقی ثابت بهتر از مجموعهای از ایدههای متناقض است، حداقل برای کسی که فکر میکند حقیقت اخلاقی هنوز وجود دارد و باید کشف شود چنین است.
کنترل کننده ثبات هوش مصنوعی
بر این اساس، ما میتوانیم از ماشینهای با ثبات اخلاقی هوش مصنوعی استفاده کنیم. کنترل کننده ثبات اخلاقی منحصربفرد شما میتواند برایتان فهرستی از تعهدات اخلاقی ایجاد کند و سپس در مورد هر گونه مغایرتی به شما اطلاع دهد. برای مثال، ممکن است باور داشته باشید که نباید به انسان آسیب برسانید (A). و همچنین ممکن است فکر کنید که خوردن گوشت مجاز است (B). فرض کنید که شما هم چنین باور دارید که حیوانات موجوداتی دارای احساس و درک هستند. واضح است که این مجموعهای از باورهای متناقض است: شما نمیتوانید به طور مداوم باور A و B را در پرتوی باورهای پسزمینه خود حفظ کنید. کنترل کننده ثبات هوش مصنوعی میتواند شما را از این حقیقت آگاه کند که ممکن است شما به سوی تجدید نظر در باورهای اخلاقی خود سوق پیدا کنید، در نتیجه بهبود اقتصاد اخلاقی داخلی در شما شکل میگیرد.
اگر چه کنترل کننده ثبات اخلاقی هوش مصنوعی در کاربرد محدود خواهد شد (به ما نشان خواهد داد که در کجا تناقضها بوجود میآیند، اما به ما نخواهد گفت که از کدام باورها باید صرف نظر کنیم)، با این حال استفاده منطقی از مشاوران اخلاقی هوش مصنوعی را نشان خواهد داد. بهتر است انتخاب آخر را داشته باشیم که کدام نظرات را حفظ کنیم و کدام را کنار بگذاریم، و این چیز خوبی است زیرا ما استقلال را حفظ خواهیم کرد تا نظر خود را شکل دهیم.
اکنون وقت آن است که نتیجهگیری کنیم. هر دو از نظر اخلاقی همسو شده و باید دانست که از نظر اخلاقی، مشاوران هوش مصنوعی از تخصص اخلاقی دور هستند. ما یا باید آنها را با اصول اخلاقی خودمان تامین کنیم، که ممکن است قضاوت اخلاقی ما ناقص باشد، و یا باید آنها را با کشف حقیقت اخلاقی به اثبات رساند که خود مشکلساز است، زیرا ما دلایل کمی داریم که باور کنیم آنها در یافتن حقیقت اخلاقی از ما بهتر هستند. در بهترین حالت، باید از کنترل کننده ثبات هوش مصنوعی استفاده کنیم، که میتواند به ما کمک کند اقتصاد اخلاقی داخلی مان را رشد دهیم و در عین حال آنچه را که فکر میکردیم، درست است رها کنیم.
از بسیاری جهات، دلایلی هست که برای مدتی باید به روش مردمی برای اتخاذ تصمیمات اخلاقی پیش برویم. با این حال نباید فراموش کنیم که مشاور اخلاقی هوش مصنوعی ممکن است به طور غیر مستقیم مفید باشد. فرآیند تلاش برای ایجاد هوش مصنوعی مشاور ممکن است چیزی در مورد اخلاقیات ما به ما یاد دهد وقتی که باید در مورد اصول اخلاقی خود شفاف باشیم. علاوه بر این، خروجی آنها، حتی اگر ناقص باشد، ممکن است ما را ترغیب کند که به طور جدی در مورد آن فکر کنیم، که ممکن است منجر به درک و دانش شود. اخلاقیات هم همین طور است، اما بهبود آن ممکن است بهتر باشد.
پاسخ دهید