آیا ماشین‌ها اخلاقی می‌شوند؟ | ایبنا


در سال‌های اخیر پیشرفت‌های چشمگیر در حوزه‌ی هوش مصنوعی، به‌ویژه در زمینه‌ی یادگیری ماشینی، کلان‌داده‌ها و پردازش زبان طبیعی، در بسیاری از ابعاد زندگی فردی، اجتماعی، اقتصادی و سیاسی انسان‌ها تحولاتی بنیادین پدید آورده است. در این میان، یکی از مهم‌ترین و، در عین حال، پیچیده‌ترین پرسش‌هایی که هم‌زمان با توسعه‌ی این فناوری مطرح شده پرسش اخلاقی است: چگونه باید فناوری‌ای را ارزیابی و مدیریت کرد که هم قابلیت حل برخی از مهم‌ترین مشکلات بشر را دارد هم می‌تواند تهدیدی برای بنیان‌های آزادی فردی و عدالت اجتماعی باشد؟

خلاصه اخلاق هوش مصنوعی» [AI Ethics] نوشته‌ی مارک کوکلبرگ [Mark Coeckelbergh]،

کتاب «اخلاق هوش مصنوعی» [AI Ethics] نوشته‌ی مارک کوکلبرگ [Mark Coeckelbergh]، فیلسوف شناخته‌شده‌ی فناوری، که اینک نشر ققنوس ترجمه‌ی فارسی آن را به قلم احسان عارفی‌فر در اختیار ما نهاده است، پاسخی تحلیلی به این پرسش اساسی ارائه می‌کند. این کتاب، که در اصل در قالب مجموعه‌ی علمی و پرخواننده‌ی «دانش ضروری» از سوی انتشارات دانشگاه ام‌آی‌تی منتشر شده، کوششی سنجیده برای معرفی و تحلیل نقادانه‌ی مهم‌ترین مباحث مربوط به اخلاق هوش مصنوعی در سطوح نظری، عملی و نیز سیاست‌گذاری است. کوکلبرگ، که خود هم‌زمان از تخصص فلسفی و تجربه‌ی مشاوره در نهادهای سیاست‌گذار اروپایی بهره‌مند است، در این اثر به جای بسنده کردن به کلیشه‌ها و روایت‌های هراس‌افکن یا خوش‌بینانه و ساده‌انگارانه، می‌کوشد فهمی ژرف‌تر و زمینه‌مندتر از نسبت بین فناوری هوش مصنوعی و ملاحظات اخلاقی به‌دست دهد.

کتاب در قالب دوازده فصل تنظیم شده است که هر یک به یکی از جنبه‌های اصلی و چالش‌برانگیز در اخلاق هوش مصنوعی می‌پردازد. نویسنده، با نگاهی میان‌رشته‌ای، مباحث را از چشم‌اندازهایی متفاوت چون فلسفه‌ی فناوری، نظریه‌های اخلاق، سیاست‌گذاری عمومی و تحلیل فرهنگی بررسی می‌کند. از همان نخستین فصل، کتاب با ارجاع به رخدادهایی نمادین چون شکست لی سدول، قهرمان بازی گو، در مقابل برنامه‌ی AlphaGo و یادآوریِ شکست پیشین کاسپارف در مقابل Deep Blue، ما را به قلب یکی از پرسش‌های اصلی می‌برد: اگر ماشین‌ها می‌توانند در پیچیده‌ترین فعالیت‌های فکری انسان بر او غلبه کنند، جایگاه ما در مقام فاعلان اخلاقی و معماران تمدن انسانی کجا است؟ کوکلبرگ با نقد روایت‌های رایج درباره‌ی ابرهوش‌ها، تکینگی فناورانه و تراانسانیت، از نقش روایت‌های فرهنگی و اسطوره‌ای در شکل‌گیری انتظارات و ترس‌ها از هوش مصنوعی سخن می‌گوید و با تحلیل مثال‌هایی از فیلم‌ها، اسطوره‌ها و ادبیات، نشان می‌دهد که چگونه گفتمان معاصر درباره‌ی هوش مصنوعی از الگوهای کهنِ رقابت انسان و ماشین یا خالق و مخلوق بهره می‌برد. او در این تحلیل‌ها به‌ویژه بر اهمیت بازاندیشی در مفاهیمی چون عاملیت اخلاقی، سوژگی، خودآگاهی، و مسئولیت‌پذیری تأکید می‌کند.

یکی از مهم‌ترین محورهای تحلیلی کتاب تبیین تمایز بین عاملیت اخلاقی و موضوعیت اخلاقی در زمینه‌ی هوش مصنوعی است. کوکلبرگ با بررسی دیدگاه‌های متنوع فلسفی، از فیلسوفان پدیدارشناسی چون هیوبرت دریفوس تا متفکران سنت تحلیلی چون جان سرل، نشان می‌دهد که پرسش از امکان اخلاقی بودن ماشین‌ها مستلزم بازبینی در بسیاری از پیش‌فرض‌های انسان‌محورانه درباره‌ی عقلانیت، احساس، قصد و تصمیم است. او، در عین حال، با اشاره به مثال‌هایی عملی مانند اتومبیل‌های خودران، سامانه‌های تشخیص چهره و ابزارهای پیش‌بینی جرم، نشان می‌دهد که حتی اگر هوش مصنوعی واجد عاملیت اخلاقی به معنای کلاسیک آن نباشد، تصمیم‌هایی که از طریق الگوریتم‌ها اتخاذ می‌شود آثار اخلاقی مستقیم و عمیقی بر زندگی افراد دارند. بنابراین، طراحی و نظارت اخلاقی بر این سامانه‌ها نه‌تنها ضروری است بلکه از نظر اخلاقی برای جوامع مدرن فوری و فوتی است.

یکی دیگر از مسائل مهمی که کتاب به‌تفصیل بدان می‌پردازد مسئله‌ی جانبداری در الگوریتم‌ها و تأثیر آن بر بازتولید نابرابری‌های نژادی، جنسیتی و طبقاتی است. کوکلبرگ با ارجاع به مطالعات موردی، مانند سیستم‌های امتیازدهی مجرمان، الگوریتم‌های استخدام و اعطای وام و ابزارهای پلیس برای پیش‌بینی جرم، نشان می‌دهد که الگوریتم‌ها نه‌تنها بی‌طرف نیستند بلکه اغلب سوگیری‌های پیشین را تشدید و نابرابری‌ها را تثبیت می‌کنند. از این منظر، اخلاق هوش مصنوعی را نمی‌توان از زمینه‌ی اجتماعی و سیاسی جدا ساخت چراکه فناوری در بستری قدرتمند عمل می‌کند و از سوی بازیگرانی خاص (شرکت‌ها، دولت‌ها، ارتش‌ها) هدایت می‌شود.

در مواضعی دیگر، کوکلبرگ با واکاوی جریان‌هایی فکری چون انسان‌گرایی، تراانسانیت و پساانسان‌گرایی، خواننده را به بازاندیشی در خود مفهوم انسان فرا می‌خواند. آیا هدف از توسعه‌ی هوش مصنوعی بازتولید انسان است یا عبور از او؟ آیا باید از حقوق بشر برای الگوریتم‌ها سخن گفت یا از کرامت انسانی در مقابل ماشین‌ها دفاع کرد؟ در این بحث‌ها دیدگاه‌هایی متنوع، از جمله انسان‌گرایی کلاسیک، پساانسان‌گرایی انتقادی، و پساپدیدارشناسی (مثلاً با تأکید بر دون آیدی) بررسی و تحلیل می‌شوند. کوکلبرگ در این بخش‌ها به‌ویژه بر ضرورت گفت‌وگو بین فناوری و علوم انسانی تأکید می‌کند و نسبت میان انسان، ماشین و محیط را رابطه‌ای پویا و تاریخی، نه ایستا و ذات‌گرایانه، می‌داند.

کتاب، در فصل‌های پایانی خود، مسائل مربوط به سیاست‌گذاری، استانداردسازی و آینده‌ی قانون‌گذاری در حوزه‌ی هوش مصنوعی را بررسی می‌کند. نویسنده، که خود عضو گروه مشاوران سطح‌بالای کمیسیون اروپایی در زمینه‌ی هوش مصنوعی بوده است، تجربه‌ی زیسته‌ی خود را در گفت‌وگو با سیاست‌گذاران و متخصصان این حوزه به کار می‌گیرد تا نشان دهد که چگونه مباحث نظری باید به چارچوب‌های عملی سیاست‌گذاری تبدیل شوند. او، همچنین، در فصل پایانی با نگاهی نقادانه درباره‌ی شیدایی نسبت به هوش مصنوعی و غفلت از بحران‌هایی چون تغییرات اقلیمی هشدار می‌دهد و می‌نویسد «احمق! مسئله‌ی اصلی آب‌وهواست!». هشدار این فصل دعوتی است برای بازنگری در اولویت‌های اخلاقی جهان معاصر و پرهیز از گرفتارشدن در بازی‌های قدرت فناوری‌محور.

برای ما که این روزها از جهات گوناگون، در زندگی فردی و اجتماعی و سیاسیمان، با هوش مصنوعی درگیر شده‌ایم اخلاق هوش مصنوعی مارک کوکلبرگ نمونه‌ای قابل توجه از تلفیق تحلیل فلسفی، حساسیت اجتماعی و تعهد اخلاقی در مواجهه با یک فناوری بسیار مهم و دوران‌ساز است. این کتاب مرجعی مفید برای دانشجویان، پژوهشگران و متخصصان فناوری است اما، علاوه بر آن، برای عموم شهروندانی هم که دغدغه‌ی آینده‌ی اخلاقی جامعه‌ی درگیر با هوش‌مصنوعی را دارند راهنمایی نقادانه محسوب می‌شود. کوکلبرگ با زبانی روشن، منسجم و پرمثال مخاطب خود را درگیر پرسش‌هایی می‌کند که نه‌تنها درباره‌ی آینده‌ی فناوری بلکه، به یک معنا، درباره‌ی معنای انسان بودن در عصر هوش مصنوعی‌اند. از این حیث، این کتاب صرفاً اثری درباره‌ی اخلاق فناوری نیست بلکه دعوتی به بازاندیشی در حال و آینده به‌شدت نامطمئن انسانی است.

................ تجربه‌ی زندگی دوباره ...............

هیتلر ۲۶ساله، در جبهه شمال فرانسه، در یک وقفه کوتاه میان نبرد، به نزدیک‌ترین شهر می‌رود تا کتابی بخرد. او در آن زمان، اوقات فراغتش را چگونه می‌گذراند؟ با خواندن کتابی محبوب از ماکس آزبرن درباره تاریخ معماری برلین... اولین وسیله خانگی‌اش یک قفسه چوبی کتاب بود -که خیلی زود پر شد از رمان‌های جنایی ارزان، تاریخ‌های نظامی، خاطرات، آثار مونتسکیو، روسو و کانت، فیلسوفان یهودستیز، ملی‌گرایان و نظریه‌پردازان توطئه ...
در طبقه متوسط، زندگی عاطفی افراد تحت تأثیر منطق بازار و بده‌بستان شکل می‌گیرد، و سرمایه‌گذاری عاطفی به یکی از ابزارهای هدایت فرد در مسیر موفقیت و خودسازی تبدیل می‌شود... تکنیک‌های روانشناسی، برخلاف ادعای آزادی‌بخشی، در بسیاری از موارد، افراد را در قالب‌های رفتاری، احساسی و شناختی خاصی جای می‌دهند که با منطق بازار، رقابت، و نظم سازمانی سرمایه‌دارانه سازگار است ...
صدام حسین بعد از ۲۴۰ روز در ۱۴ دسامبر ۲۰۰۳ در مزرعه‌ای در تکریت با ۷۵۰ هزار دلار پول و دو اسلحه کمری دستگیر شد... جان نیکسون تحلیلگر ارشد سیا بود که سال‌های زیادی از زندگی خود را صرف مطالعه زندگی صدام کرده بود. او که تحصیلات خود را در زمینه تاریخ در دانشگاه جورج واشنگتن به پایان رسانده بود در دهه ۱۹۹۰ به استخدام آژانس اطلاعاتی آمریکا درآمد و علاقه‌اش به خاورمیانه باعث شد تا مسئول تحلیل اطلاعات مربوط به ایران و عراق شود... سه تریلیون دلار هزینه این جنگ شد ...
ما خانواده‌ای یهودی در رده بالای طبقه متوسط عراق بودیم که بر اثر ترکیبی از فشارهای ناشی از ناسیونالیسم عربی و یهودی، فشار بیگانه‌ستیزی عراقی‌ها و تحریکات دولت تازه ‌تأسیس‌شده‌ی اسرائیل جاکن و آواره شدیم... حیاتِ جاافتاده و عمدتاً رضایت‌بخش یهودیان در کنار مسلمانان عراق؛ دربه‌دری پراضطراب و دردآلود؛ مشکلات سازگار‌ شدن با حیاتی تازه در ارض موعود؛ و سه سال عمدتاً ناشاد در لندن: تبعید دوم ...
رومر در میان موج نویی‌ها فیلمساز خاصی‌ست. او سبک شخصی خود را در قالب فیلم‌های ارزان قیمت، صرفه‌جویانه و عمیق پیرامون روابط انسانی طی بیش از نیم قرن ادامه داده است... رومر حتی وقتی بازیگرانی کاملاً حرفه‌ای انتخاب می‌کند، جنس بازیگری را معمولاً از شیوه‌ی رفتار مردم معمولی می‌گیرد که در دوره‌ای هدف روسلینی هم بود و وضعیتی معمولی و ظاهراً کم‌حادثه، اما با گفت‌وگوهایی سرشار از بارِ معنایی می‌سازد... رومر در جست‌وجوی نوعی «زندگی‌سازی» است ...