بسط ذهن آدم | اعتماد
کتاب مهم دوران حضور پرفروغ و پررنگ هوش مصنوعی در جوامع بشری، اثری است از هرمان کاپلن (Herman Cappelen) و جاش دور (Josh Dever) با عنوان «فهمپذیر کردنِ هوش مصنوعی: بنیادهای فلسفی» (Making AI Intelligible: Philosophical Foundations) سوال اینجاست که آیا در پس این عنوان، دغدغه نویسندگان این است که چگونه میتوان هوش مصنوعی را به درجهای از درک و فهم رساند؟ یا اینکه چگونه میتوان هوش مصنوعی را برای انسانها قابل فهم کرد؟

در واقع همین تمایز، قلب معنایی عنوان کتاب «فهمپذیر کردنِ هوش مصنوعی» را شکل میدهد. کاپلن و دور فیلسوفان زبان هستند، نه مهندسان هوش مصنوعی. دغدغه آنها تولید فهم در خودِ ماشین نیست، بلکه توضیح نحوه درک انسان از زبان و کنشهای هوش مصنوعی است. نویسندگان منظورشان این نیست که «چگونه میتوان هوش مصنوعی را به درجهای از درک و فهم رساند»، بلکه میخواهند بدانند چگونه میتوان هوش مصنوعی را برای انسانها فهمپذیر و معنادار کرد. در سنت فلسفه زبان و معرفتشناسی، واژه «فهمپذیر» یا «قابل فهم» (intelligible) همیشه از دید ناظر انسانی معنا دارد یعنی چیزی که میتوان آن را فهمید، تفسیر کرد یا معنادار دانست. فهمپذیر کردنِ هوش مصنوعی یعنی «ایجاد شرایطی که در آن، هوش مصنوعی برای انسان قابل فهم و معنا شود.»
مولفان در مقدمه کتاب صراحتا میگویند: «چالش این نیست که هوش مصنوعی را هوشمند کنیم، بلکه این است که آن را فهمپذیر کنیم؛ بفهمیم چه میکند، چه میگوید و آیا سخنانش معنایی دارند یا نه.»
کتاب میپرسد: ما چگونه میتوانیم از منظر فلسفی بفهمیم وقتی هوش مصنوعی (AI) چیزی میگوید یا تصمیمی میگیرد، دقیقا چه چیزی فهمیده میشود؟ هدف کتاب این است که نشان دهد برای به دست آوردن فهم واقعی روابط انسان-ماشین، نیاز به بازاندیشی مفاهیم بنیادی فلسفه زبان و متا-معناشناسی داریم و بهویژه، باید نظریههایی تدوین شوند که صرفا انسانمحور (anthropocentric) نباشند.
قدم اول: فقط انسان را محور معنا و فکر نبینید
نویسندگان ابتدا سراغ بحث نظریههای «انسانمحوری زدوده شده» (de-anthropocentrized) به معنای «دور شدن از انسانمحوری» میروند.آنها ایده «دور شدن از انسانمحوری» را به عنوان نقطه شروع فلسفی خود مطرح میکنند، اما نه صرفا به عنوان یک نظریه مستقل، بلکه به عنوان پایه روششناختی کل پروژه خود در کتاب. ایشان معتقدند اگر قرار است هوش مصنوعی را بفهمیم، باید نخست یک خطای اساسی را کنار بگذاریم: خطای انسانمحوری (anthropocentrism) در نظریههای معنا و ذهن. اما «دور شدن از انسانمحوری» یعنی چه؟ پیشوند «de-» به معنای «زدودن» یا «دور کردن» است. پس «انسانمحوری زدوده»یعنی «دور شدن از انسانمحوری» یا به زبان سادهتر: «فقط انسان را محور معنا و فکر ندیدن.»
کاپلن و دور در کتاب خود بر این باورند که نظریهای که میخواهد هوش مصنوعی را فهمپذیر کند، نباید چنان طراحی شود که تنها انسانها بتوانند معنا داشته باشند. یعنی اگر در فلسفه زبان یا معنا بگوییم فقط انسانها میتوانند فکر کنند، باور داشته باشند یا چیزی را نمایندگی کنند (represent)، آنگاه هیچ راهی برای نسبت دادن «معنا» یا «محتوا» به هوش مصنوعی باقی نمیماند. اما اگر بخواهیم بفهمیم آیا «هوش مصنوعی» (AI) هم میتواند چیزی را «بداند»، «باور کند» یا «نمایش دهد»، باید نظریههایمان را چنان تنظیم کنیم که شامل موجودات غیرانسانی نیز بشود. یعنی باید بپذیریم که سیستمهای هوش مصنوعی هم «نوعی» درک، محتوا یا بازنمایی دارند؛ گرچه این درک الزاما شبیه درک انسانی نیست.
برای مثال، وقتی یک مدل زبانی مانند «جیپیتی» (GPT) درباره مفهومی سخن میگوید، شاید نوعی «نمایندگی مفهومی» در دادهها و ساختارش شکل گرفته باشد. این نمایندگی شاید با آنچه در مغز انسان رخ میدهد متفاوت باشد، اما همچنان میتواند نوعی معنا باشد، آنهم از جنس خودش، چون هدف نویسندگان این است که نشان دهند چگونه میتوان درباره معنای خروجیهای هوش مصنوعی از دید فلسفی سخن گفت، از اینرو، اگر نظریه معنا فقط مخصوص انسانها باشد، آنگاه هوش مصنوعی همیشه بیرون از قلمرو فلسفه میماند. مانند ماشینی بیجان که صرفا الگو تولید میکند، نه معنا.
اما کاپلن و دور معتقدند اگر نظریه را از انسانمحوری جدا کنیم، میتوانیم بررسی کنیم که آیا «هوش مصنوعی» (AI) هم نوعی فهم، بازنمایی یا محتوا دارد، حتی اگر شیوهاش با ما متفاوت باشد.
قدم دوم: کارکرد مهم نیست، معنای هوش مصنوعی مهم است
نویسندگان این اثر معتقدند ما معمولا گمان میکنیم اگر بفهمیم یک مدل هوش مصنوعی چگونه کار میکند، پس آن را «فهمیدهایم»، اما این درست نیست؛ زیرا دانستن چگونگی کارکرد فنی مدل با فهمیدن معنای کارش برای انسان فرق دارد. مثلا مهندسان میخواهند بفهمند «سیستم از درون چگونه کار میکند؟» در حالی که فیلسوفان میخواهند بفهمند «خروجی این سیستم در جهان انسانی چه معنایی دارد؟»
توضیحپذیری (Explainability) یعنی چه؟
در دنیای مهندسی وقتی میگویند یک مدل «قابل توضیح» است، یعنی میتوان نشان داد کدام بخش از دادهها بر تصمیم اثر گذاشته، وزنها، الگوریتمها یا مسیر تصمیمگیری مدل چه بوده و چرا مدل مثلا گفت: «این وام را پرداخت نکن» یا «این تصویر گربه است.» این توضیحات برای مهندسان، قانونگذاران یا سرمایهگذاران مفید است، چون میفهمند مدل چگونه تصمیم میگیرد.
فهمپذیری (Intelligibility) یعنی چه؟
نویسندگان معتقدند توضیح فنی کافی نیست، زیرا فهم واقعی یعنی اینکه خروجی مدل در چارچوب مفاهیم انسانی معنا داشته باشد. باید بتوان پرسید: آیا وقتی مدل گفت «این فرد «پرخطر» (High Risk) است»، واقعا این مفهوم در دنیای اجتماعی یا اخلاقی همان معنایی را دارد که انسانها از عبارت «خطر بالا» میفهمند؟
آیا خروجی مدل را میتوان بهطور معنادار تفسیر کرد؟ آیا میشود براساس آن تصمیم گرفت، قضاوت کرد یا مسوولیت پذیرفت؟ پس فهمپذیری یعنی قابل فهم بودن از نظر مفهومی و انسانی نه فقط از نظر فنی.
چرا این تفاوت مهم است؟
نویسندگان هشدار میدهند که تمرکز بیش از حد بر «توضیحپذیری» ما را گمراه میکند، زیرا ممکن است از لحاظ فنی بفهمیم مدل چگونه کار میکند، اما هنوز ندانیم خروجیهایش از نظر معنا، اخلاق یا عدالت اجتماعی چه دلالتی دارند.مثلا فرض کنید سیستم هوش مصنوعی دادگاه میگوید: «این فرد مجرم است.» ما میتوانیم بفهمیم الگوریتم هوش مصنوعی چگونه به این نتیجه رسیده (توضیحپذیری)، اما هنوز نمیفهمیم آیا «مجرم بودن» در مدل همان مفهومی است که در جامعه، قانون یا اخلاق ما وجود دارد (فهمپذیری). بنابراین دانستن چگونگی تصمیم کافی نیست؛ باید بدانیم تصمیم چه معنایی دارد.
هدف نویسندگان از طرح این موضوع این است که میخواهند بحث را از پرسش فنی «چگونه مدل را توضیح دهیم؟» به پرسش فلسفیتر ببرند: «چگونه خروجیهای مدل برای ما معنایی دارند؟» و این دقیقا همان چیزی است که عنوان کتاب یعنی فهمپذیر کردن هوش مصنوعی برای انسانها میگوید.
چرا این بحث اخلاقی مهم است؟
از دید کاپلن و دور فهمپذیری فقط برای درک نظری نیست، بلکه برای اعتماد، قضاوت اخلاقی و مسوولیتپذیری ضروری است. اگر ما فقط توضیح فنی داشته باشیم ولی معنای انسانی را نفهمیم، نمیتوانیم تصمیم بگیریم که آیا مدل عادلانه عمل کرده است یا نه یا بفهمیم آیا خروجی آن تبعیضآمیز است یا خیر. همچنین در این صورت نمیتوانیم مسوولیت نتایج را به کسی نسبت دهیم.پس فهمپذیری شرط لازم برای «اخلاقی بودنِ هوش مصنوعی» است.
قدم سوم: معنا به بیرون از ذهن انسان تسری یافته است
نویسندگان کتاب پرسشی بنیادی مطرح میکنند: وقتی هوش مصنوعی (مثلا یک مدل زبانی) چیزی میگوید یا تصمیمی میگیرد، آیا آن خروجی معنا دارد؟ و اگر دارد، آن معنا از کجا میآید؟ برای مثال وقتی «جیپیتی» میگوید: «گربه روی فرش است»، آیا این جمله واقعا درباره یک گربه و فرش است؟ یا فقط الگویی آماری از کلمات مشابه در متون پیشین است؟ اینجاست که پای فلسفه معنا به میان میآید، به ویژه مکتب معروفی در معناشناسی به نام «برونگرایی» (externalism).
در فلسفه زبان، «برونگرایی» میگوید: معنای واژهها فقط در ذهن گوینده نیست، بلکه به دنیای بیرون و زمینه اجتماعی هم وابسته است. مثلا واژه «آب» فقط به خاطر تصویری در ذهن من معنا ندارد، بلکه چون در دنیای واقعی به مادهای خاص (H₂O) اشاره میکند، معنایش تثبیت میشود. این ایده را فیلسوفانی چون هیلاری پاتنم (Hilary Putnam) و سول کریپکی (Saul Kripke) مطرح کردند.
کاپلن و دور میگویند اگر معنا همیشه وابسته به زمینه بیرونی است، پس وقتی هوش مصنوعی چیزی میگوید، زمینه بیرونی آن چیست؟ به بیان دیگر: انسانها در جامعهای زبانی زندگی میکنند و معنا در تعامل اجتماعی ساخته میشود. اما هوش مصنوعی در جامعه زبانی واقعی زندگی نمیکند؛ تعاملاتش شبیهسازی شدهاند، نه واقعی. پس پرسش جدی پیش میآید: آیا خروجیهای هوش مصنوعی اصلا میتوانند معنا داشته باشند؟ یا فقط شبیهسازی آماری معنا هستند؟
موضعگیری متا-معناشناختی یعنی چه؟
«متا-معناشناسی» یا «فرامعناشناسی» یعنی بررسی خودِ مفهومِ معنا در سطحی بالاتر. در اینجا نویسندگان نمیخواهند معنای جملهای خاص را تحلیل کنند، بلکه میخواهند بپرسند اصولا «داشتنِ معنا» یعنی چه و آیا هوش مصنوعی میتواند چیزی را به معنای واقعی کلمه معنا کند؟
برای پاسخ به این پرسش، آنها نظریههای سنتی معناشناسی مانند «برونگرایی» (externalism) را بازبینی میکنند تا ببینند آیا آن نظریهها فقط برای انسانها کاربرد دارند یا میتوانند به ماشینها هم تعمیم یابند.
هدف نویسندگان از طرح این بحث، روشن کردن جایگاه فلسفی هوش مصنوعی در نسبت با نظریههای زبان و معناست. آنها میخواهند بفهمند وقتی «هوش مصنوعی» (AI) جملهای میسازد، آیا ما حق داریم بگوییم که این جمله معنایی واقعی دارد یا فقط یک خروجی آماری است که ظاهرا معنا دارد.
برای این کار باید تعیین کنیم که آیا معنا چیزی است که آنطور که «درونگرایی» (internalism) میگوید، از «درون» مدل میآید یا از «رابطه مدل با جهان و انسانها» ناشی میشود، چنانکه «برونگرایی» معتقد است. نویسندگان درنهایت میگویند: «نظریههای سنتی برونگرایی معنا برای فهم زبان انسانی مفیدند، اما برای هوش مصنوعی کافی نیستند، چون «هوش مصنوعی» (AI) در جهان ما زندگی نمیکند، در جامعه ما نیست و تجربه ندارد.»
پس باید نسخهای تازه از برونگرایی تعریف کنیم که بتواند شامل رابطه بین انسان و ماشین نیز بشود؛ یعنی نوعی «برونگرایی انسان-هوش مصنوعی» (human–AI externalism). این تعبیر به آن معناست که معنای خروجیهای «هوش مصنوعی» (AI) از تعامل با انسانها و کاربردشان در جهان انسانی پدید میآید، نه از دنیای درونی ماشین.
قدم چهارم: هوش مصنوعی، ادامه گسترش ذهن بشری است
در فلسفه ذهن، نظریهای معروف به نام «فرضیه ذهنِ گسترده» (The Extended Mind Hypothesis) وجود دارد. این نظریه میگوید: ذهن فقط در مغز ما نیست، بلکه میتواند تا بیرون از بدن، در ابزارها و محیط نیز گسترش یابد.
برای مثال، وقتی از دفترچه یادداشت استفاده میکنی تا چیزی را به خاطر بسپاری، آن دفترچه در واقع بخشی از فرآیند ذهنی تو شده است یا وقتی از ماشینحساب برای محاسبه استفاده میکنی، ابزار بیرونی دارد کار ذهنی تو را گسترش میدهد. به بیان دیگر ذهن میتواند توزیع شده و گسترده باشد، نه فقط محدود به مغز.
کاپلن و دور میخواهند از این نظریه استفاده کنند تا پرسشی کلیدی مطرح کنند: آیا ممکن است هوش مصنوعی در واقع بخشی از ذهن انسان باشد؟ یعنی بخشی از فرآیند شناختی ما که از بدن و مغز فراتر رفته است؟ آنان توضیح میدهند که اگر ذهن انسان میتواند با دفترچه یا کامپیوتر گسترش پیدا کند، پس سیستمهای هوش مصنوعی نیز میتوانند در این زنجیره قرار بگیرند؛ یعنی در برخی شرایط، نه فقط ابزار، بلکه بخشی از فرآیند فکری و معنایی ما شوند.
ارتباط فرضیه ذهنِ گسترده با بحث معنا (Intelligibility)
گفتیم مساله اصلی کتاب این است که چگونه میتوان خروجیهای هوش مصنوعی را فهمید و دارای معنا دانست. نویسندگان با طرح ایده «ذهن گسترده» میخواهند بگویند شاید لازم نباشد بپرسیم «آیا «هوش مصنوعی» (AI) خود مغز یا احساس دارد؟»، بلکه باید بپرسیم: «آیا در تعامل با ما، بخشی از فرآیند فهم انسانی شده است یا نه؟»
به عبارت دیگر، در اینجا معنا و فهم در مرز میان انسان و ماشین شکل میگیرد، نه فقط در یکی از آنها.
یعنی وقتی ما با یک مدل زبانی کار میکنیم، فهمی مشترک تولید میشود که نه کاملا انسانی است و نه کاملا ماشینی، بلکه درهمتنیده و گسترده است.هدف نویسندگان از طرح این موضوع این است که نظریههای معناشناسی را از محدودیتِ «زیستی بودن» بیرون بیاورند.
در نظریههای سنتی فلسفه ذهن، معنا و آگاهی معمولا فقط برای موجودات زنده و مغزدار تعریف میشد.
اما نویسندگان میگویند اگر بپذیریم ذهن میتواند گسترده باشد، باید بپذیریم معنا نیز میتواند در سیستمهای مشترک انسان-ماشین شکل بگیرد. درواقع، شاید هوش مصنوعی خود «ذهن» نداشته باشد، اما وقتی با انسانها همکاری میکند، با ذهن انسانی پیوند میخورد و بخشی از فرآیند فهم میشود. نویسندگان اشاره میکنند: «هر نظریهای از محتوا که معنا را فقط به ساختارهای زیستی یا ذهنی انسان محدود کند، نمیتواند فهمپذیری سیستمهای مصنوعیای را توضیح دهد که در فعالیتهای شناختی ما مشارکت دارند.»
اگر معنا را فقط به مغز انسان گره بزنیم، دیگر نمیتوانیم توضیح دهیم چرا هوش مصنوعی درکپذیر است.پس باید نظریهای منعطفتر بسازیم که ذهن و معنا را گستردهتر ببیند.فرض کنید از یک برنامه هوش مصنوعی برای ترجمه متن استفاده میکنید. شما واژهها را انتخاب میکنید، مدل ترجمه میکند و شما اصلاحش میکنید. در این فرآیند، معنا نه فقط در ذهن شما، نه فقط در مدل، بلکه در تعامل بین شما و مدل شکل میگیرد.در واقع، هوش مصنوعی در این موقعیت بخشی از ذهن گسترده شما شده است و همینجاست که فهم و معنا به صورت میانجیوار ساخته میشود.
اهمیت کتاب
کتاب «فهمپذیر کردن هوش مصنوعی: بنیادهای فلسفی» گامی مهم در پیوند میان فلسفه معنا و هوش مصنوعی است. این کتاب نشان میدهد که مباحث فلسفی قدیمی و مفاهیمی مثل معنا، نمایندگی، فرامعناشناسی و برونگرایی نه برای فلسفه نظری صرف، بلکه برای درک واقعی چیستی فهم و معنای ماشینها اهمیت دارند.
این اثر ایدهای مهم مطرح میکند: باید نظریههای محتوا را بازتعریف کنیم تا شامل سیستمهایی شوند که نه مانند انسانها تجربه دارند و نه همان تاریخچههای زبانی یا اجتماعی را دارند. این کتاب تنها یک پروژه نظری نیست، بلکه پیامدهای عملی نیز دارد از سیاستگذاری و قانونگذاری گرفته تا عدالت در تصمیمات خودکار، مسوولیتپذیری در سیستمهای هوش مصنوعی و طراحی سامانههایی که مردم بتوانند آنها را بفهمند و به آنها اعتماد کنند.
................ تجربهی زندگی دوباره ...............