بسط ذهن آدم | اعتماد


کتاب مهم دوران حضور پرفروغ و پررنگ هوش مصنوعی در جوامع بشری، اثری است از هرمان کاپلن (Herman Cappelen) و جاش دور (Josh Dever) با عنوان «فهم‌پذیر کردنِ هوش مصنوعی: بنیادهای فلسفی» (Making AI Intelligible: Philosophical Foundations) سوال اینجاست که آیا در پس این عنوان، دغدغه نویسندگان این است که چگونه می‌توان هوش مصنوعی را به درجه‌ای از درک و فهم رساند؟ یا اینکه چگونه می‌توان هوش مصنوعی را برای انسان‌ها قابل ‌فهم کرد؟

«فهم‌پذیر کردنِ هوش مصنوعی: بنیادهای فلسفی» (Making AI Intelligible: Philosophical Foundations) هرمان کاپلن (Herman Cappelen) و جاش دور (Josh Dever)

در واقع همین تمایز، قلب معنایی عنوان کتاب «فهم‌پذیر کردنِ هوش مصنوعی» را شکل می‌دهد. کاپلن و دور فیلسوفان زبان‌ هستند، نه مهندسان هوش مصنوعی. دغدغه آنها تولید فهم در خودِ ماشین نیست، بلکه توضیح نحوه درک انسان از زبان و کنش‌های هوش مصنوعی است. نویسندگان منظورشان این نیست که «چگونه می‌توان هوش مصنوعی را به درجه‌ای از درک و فهم رساند»، بلکه می‌خواهند بدانند چگونه می‌توان هوش مصنوعی را برای انسان‌ها فهم‌پذیر و معنادار کرد. در سنت فلسفه‌ زبان و معرفت‌شناسی، واژه «فهم‌پذیر» یا «قابل فهم» (intelligible) همیشه از دید ناظر انسانی معنا دارد یعنی چیزی که می‌توان آن را فهمید، تفسیر کرد یا معنادار دانست. فهم‌پذیر کردنِ هوش مصنوعی یعنی «ایجاد شرایطی که در آن، هوش مصنوعی برای انسان قابل فهم و معنا شود.»

مولفان در مقدمه کتاب صراحتا می‌گویند: «چالش این نیست که هوش مصنوعی را هوشمند کنیم، بلکه این است که آن را فهم‌پذیر کنیم؛ بفهمیم چه می‌کند، چه می‌گوید و آیا سخنانش معنایی دارند یا نه.»

کتاب می‌پرسد: ما چگونه می‌توانیم از منظر فلسفی بفهمیم وقتی هوش مصنوعی (AI) چیزی می‌گوید یا تصمیمی می‌گیرد، دقیقا چه چیزی فهمیده می‌شود؟ هدف کتاب این است که نشان دهد برای به دست آوردن فهم واقعی روابط انسان-ماشین، نیاز به بازاندیشی مفاهیم بنیادی فلسفه زبان و متا-معناشناسی داریم و به‌ویژه، باید نظریه‌هایی تدوین شوند که صرفا انسان‌محور (anthropocentric) نباشند.

قدم اول: فقط انسان را محور معنا و فکر نبینید
نویسندگان ابتدا سراغ بحث نظریه‌های «انسان‌محوری ‌زدوده شده» (de-anthropocentrized) به معنای «دور شدن از انسان‌محوری» می‌روند.آنها ایده «دور شدن از انسان‌محوری» را به عنوان نقطه‌ شروع فلسفی خود مطرح می‌کنند، اما نه صرفا به عنوان یک نظریه‌ مستقل، بلکه به عنوان پایه‌ روش‌شناختی کل پروژه‌ خود در کتاب. ایشان معتقدند اگر قرار است هوش مصنوعی را بفهمیم، باید نخست یک خطای اساسی را کنار بگذاریم: خطای انسان‌محوری (anthropocentrism) در نظریه‌های معنا و ذهن. اما «دور شدن از انسان‌محوری» یعنی چه؟ پیشوند «de-» به معنای «زدودن» یا «دور کردن» است. پس «انسان‌محوری‌ زدوده»یعنی «دور شدن از انسان‌محوری» یا به زبان ساده‌تر: «فقط انسان را محور معنا و فکر ندیدن.»

کاپلن و دور در کتاب خود بر این باورند که نظریه‌ای که می‌خواهد هوش مصنوعی را فهم‌پذیر کند، نباید چنان طراحی شود که تنها انسان‌ها بتوانند معنا داشته باشند. یعنی اگر در فلسفه زبان یا معنا بگوییم فقط انسان‌ها می‌توانند فکر کنند، باور داشته باشند یا چیزی را نمایندگی کنند (represent)، آنگاه هیچ راهی برای نسبت دادن «معنا» یا «محتوا» به هوش مصنوعی باقی نمی‌ماند. اما اگر بخواهیم بفهمیم آیا «هوش مصنوعی» (AI) هم می‌تواند چیزی را «بداند»، «باور کند» یا «نمایش دهد»، باید نظریه‌هایمان را چنان تنظیم کنیم که شامل موجودات غیرانسانی نیز بشود. یعنی باید بپذیریم که سیستم‌های هوش مصنوعی هم «نوعی» درک، محتوا یا بازنمایی دارند؛ گرچه این درک الزاما شبیه درک انسانی نیست.

برای مثال، وقتی یک مدل زبانی مانند «جی‌پی‌تی» (GPT) درباره‌ مفهومی سخن می‌گوید، شاید نوعی «نمایندگی مفهومی» در داده‌ها و ساختارش شکل گرفته باشد. این نمایندگی شاید با آنچه در مغز انسان رخ می‌دهد متفاوت باشد، اما همچنان می‌تواند نوعی معنا باشد، آن‌هم از جنس خودش، چون هدف نویسندگان این است که نشان دهند چگونه می‌توان درباره‌ معنای خروجی‌های هوش مصنوعی از دید فلسفی سخن گفت، از این‌رو، اگر نظریه معنا فقط مخصوص انسان‌ها باشد، آنگاه هوش مصنوعی همیشه بیرون از قلمرو فلسفه می‌ماند. مانند ماشینی بی‌جان که صرفا الگو تولید می‌کند، نه معنا.

اما کاپلن و دور معتقدند اگر نظریه را از انسان‌محوری جدا کنیم، می‌توانیم بررسی کنیم که آیا «هوش مصنوعی» (AI) هم نوعی فهم، بازنمایی یا محتوا دارد، حتی اگر شیوه‌اش با ما متفاوت باشد.

قدم دوم: کارکرد مهم نیست، معنای هوش مصنوعی مهم است
نویسندگان این اثر معتقدند ما معمولا گمان می‌کنیم اگر بفهمیم یک مدل هوش مصنوعی چگونه کار می‌کند، پس آن را «فهمیده‌ایم»، اما این درست نیست؛ زیرا دانستن چگونگی کارکرد فنی مدل با فهمیدن معنای کارش برای انسان فرق دارد. مثلا مهندسان می‌خواهند بفهمند «سیستم از درون چگونه کار می‌کند؟» در حالی که فیلسوفان می‌خواهند بفهمند «خروجی این سیستم در جهان انسانی چه معنایی دارد؟»

توضیح‌پذیری (Explainability) یعنی چه؟
در دنیای مهندسی وقتی می‌گویند یک مدل «قابل توضیح» است، یعنی می‌توان نشان داد کدام بخش از داده‌ها بر تصمیم اثر گذاشته، وزن‌ها، الگوریتم‌ها یا مسیر تصمیم‌گیری مدل چه بوده و چرا مدل مثلا گفت: «این وام را پرداخت نکن» یا «این تصویر گربه است.» این توضیحات برای مهندسان، قانونگذاران یا سرمایه‌گذاران مفید است، چون می‌فهمند مدل چگونه تصمیم می‌گیرد.

فهم‌پذیری (Intelligibility) یعنی چه؟
نویسندگان معتقدند توضیح فنی کافی نیست، زیرا فهم واقعی یعنی اینکه خروجی مدل در چارچوب مفاهیم انسانی معنا داشته باشد. باید بتوان پرسید: آیا وقتی مدل گفت «این فرد «پرخطر» (High Risk) است»، واقعا این مفهوم در دنیای اجتماعی یا اخلاقی همان معنایی را دارد که انسان‌ها از عبارت «خطر بالا» می‌فهمند؟

آیا خروجی مدل را می‌توان به‌طور معنادار تفسیر کرد؟ آیا می‌شود براساس آن تصمیم گرفت، قضاوت کرد یا مسوولیت پذیرفت؟ پس فهم‌پذیری یعنی قابل فهم بودن از نظر مفهومی و انسانی نه فقط از نظر فنی.

چرا این تفاوت مهم است؟
نویسندگان هشدار می‌دهند که تمرکز بیش از حد بر «توضیح‌پذیری» ما را گمراه می‌کند، زیرا ممکن است از لحاظ فنی بفهمیم مدل چگونه کار می‌کند، اما هنوز ندانیم خروجی‌هایش از نظر معنا، اخلاق یا عدالت اجتماعی چه دلالتی دارند.مثلا فرض کنید سیستم هوش مصنوعی دادگاه می‌گوید: «این فرد مجرم است.» ما می‌توانیم بفهمیم الگوریتم هوش مصنوعی چگونه به این نتیجه رسیده (توضیح‌پذیری)، اما هنوز نمی‌فهمیم آیا «مجرم بودن» در مدل همان مفهومی است که در جامعه، قانون یا اخلاق ما وجود دارد (فهم‌پذیری). بنابراین دانستن چگونگی تصمیم کافی نیست؛ باید بدانیم تصمیم چه معنایی دارد.

هدف نویسندگان از طرح این موضوع این است که می‌خواهند بحث را از پرسش فنی «چگونه مدل را توضیح دهیم؟» به پرسش فلسفی‌تر ببرند: «چگونه خروجی‌های مدل برای ما معنایی دارند؟» و این دقیقا همان چیزی است که عنوان کتاب یعنی فهم‌پذیر کردن هوش مصنوعی برای انسان‌ها می‌گوید.

چرا این بحث اخلاقی مهم است؟
از دید کاپلن و دور فهم‌پذیری فقط برای درک نظری نیست، بلکه برای اعتماد، قضاوت اخلاقی و مسوولیت‌پذیری ضروری است. اگر ما فقط توضیح فنی داشته باشیم ولی معنای انسانی را نفهمیم، نمی‌توانیم تصمیم بگیریم که آیا مدل عادلانه عمل کرده است یا نه یا بفهمیم آیا خروجی آن تبعیض‌آمیز است یا خیر. همچنین در این صورت نمی‌توانیم مسوولیت نتایج را به کسی نسبت دهیم.پس فهم‌پذیری شرط لازم برای «اخلاقی بودنِ هوش مصنوعی» است.

قدم سوم: معنا به بیرون از ذهن انسان تسری یافته است
نویسندگان کتاب پرسشی بنیادی مطرح می‌کنند: وقتی هوش مصنوعی (مثلا یک مدل زبانی) چیزی می‌گوید یا تصمیمی می‌گیرد، آیا آن خروجی معنا دارد؟ و اگر دارد، آن معنا از کجا می‌آید؟ برای مثال وقتی «جی‌پی‌تی» می‌گوید: «گربه روی فرش است»، آیا این جمله واقعا درباره‌ یک گربه و فرش است؟ یا فقط الگویی آماری از کلمات مشابه در متون پیشین است؟ اینجاست که پای فلسفه معنا به میان می‌آید، به ‌ویژه مکتب معروفی در معناشناسی به نام «برون‌گرایی» (externalism).

در فلسفه‌ زبان، «برون‌گرایی» می‌گوید: معنای واژه‌ها فقط در ذهن گوینده نیست، بلکه به دنیای بیرون و زمینه اجتماعی هم وابسته است. مثلا واژه «آب» فقط به خاطر تصویری در ذهن من معنا ندارد، بلکه چون در دنیای واقعی به ماده‌ای خاص (H₂O) اشاره می‌کند، معنایش تثبیت می‌شود. این ایده را فیلسوفانی چون هیلاری پاتنم (Hilary Putnam) و سول کریپکی (Saul Kripke) مطرح کردند.

کاپلن و دور می‌گویند اگر معنا همیشه وابسته به زمینه‌ بیرونی است، پس وقتی هوش مصنوعی چیزی می‌گوید، زمینه بیرونی آن چیست؟ به بیان دیگر: انسان‌ها در جامعه‌ای زبانی زندگی می‌کنند و معنا در تعامل اجتماعی ساخته می‌شود. اما هوش مصنوعی در جامعه‌ زبانی واقعی زندگی نمی‌کند؛ تعاملاتش شبیه‌سازی شده‌اند، نه واقعی. پس پرسش جدی پیش می‌آید: آیا خروجی‌های هوش مصنوعی اصلا می‌توانند معنا داشته باشند؟ یا فقط شبیه‌سازی آماری معنا هستند؟

موضع‌گیری متا-معناشناختی یعنی چه؟
«متا-معناشناسی» یا «فرامعناشناسی» یعنی بررسی خودِ مفهومِ معنا در سطحی بالاتر. در اینجا نویسندگان نمی‌خواهند معنای جمله‌ای خاص را تحلیل کنند، بلکه می‌خواهند بپرسند اصولا «داشتنِ معنا» یعنی چه و آیا هوش مصنوعی می‌تواند چیزی را به معنای واقعی کلمه معنا کند؟

برای پاسخ به این پرسش، آنها نظریه‌های سنتی معناشناسی مانند «برون‌گرایی» (externalism) را بازبینی می‌کنند تا ببینند آیا آن نظریه‌ها فقط برای انسان‌ها کاربرد دارند یا می‌توانند به ماشین‌ها هم تعمیم یابند.

هدف نویسندگان از طرح این بحث، روشن‌ کردن جایگاه فلسفی هوش مصنوعی در نسبت با نظریه‌های زبان و معناست. آنها می‌خواهند بفهمند وقتی «هوش مصنوعی» (AI) جمله‌ای می‌سازد، آیا ما حق داریم بگوییم که این جمله معنایی واقعی دارد یا فقط یک خروجی آماری است که ظاهرا معنا دارد.

برای این کار باید تعیین کنیم که آیا معنا چیزی است که آن‌طور که «درون‌گرایی» (internalism) می‌گوید، از «درون» مدل می‌آید یا از «رابطه مدل با جهان و انسان‌ها» ناشی می‌شود، چنان‌که «برون‌گرایی» معتقد است. نویسندگان درنهایت می‌گویند: «نظریه‌های سنتی برون‌گرایی معنا برای فهم زبان انسانی مفیدند، اما برای هوش مصنوعی کافی نیستند، چون «هوش مصنوعی» (AI) در جهان ما زندگی نمی‌کند، در جامعه‌ ما نیست و تجربه ندارد.»

پس باید نسخه‌ای تازه از برون‌گرایی تعریف کنیم که بتواند شامل رابطه‌ بین انسان و ماشین نیز بشود؛ یعنی نوعی «برون‌گرایی انسان-هوش مصنوعی» (human–AI externalism). این تعبیر به آن معناست که معنای خروجی‌های «هوش مصنوعی» (AI) از تعامل با انسان‌ها و کاربردشان در جهان انسانی پدید می‌آید، نه از دنیای درونی ماشین.

قدم چهارم: هوش مصنوعی، ادامه گسترش ذهن بشری است
در فلسفه ذهن، نظریه‌ای معروف به نام «فرضیه ذهنِ گسترده» (The Extended Mind Hypothesis) وجود دارد. این نظریه می‌گوید: ذهن فقط در مغز ما نیست، بلکه می‌تواند تا بیرون از بدن، در ابزارها و محیط نیز گسترش یابد.

برای مثال، وقتی از دفترچه یادداشت استفاده می‌کنی تا چیزی را به خاطر بسپاری، آن دفترچه در واقع بخشی از فرآیند ذهنی تو شده است یا وقتی از ماشین‌حساب برای محاسبه استفاده می‌کنی، ابزار بیرونی دارد کار ذهنی تو را گسترش می‌دهد. به بیان دیگر ذهن می‌تواند توزیع ‌شده و گسترده باشد، نه فقط محدود به مغز.

کاپلن و دور می‌خواهند از این نظریه استفاده کنند تا پرسشی کلیدی مطرح کنند: آیا ممکن است هوش مصنوعی در واقع بخشی از ذهن انسان باشد؟ یعنی بخشی از فرآیند شناختی ما که از بدن و مغز فراتر رفته است؟ آنان توضیح می‌دهند که اگر ذهن انسان می‌تواند با دفترچه یا کامپیوتر گسترش پیدا کند، پس سیستم‌های هوش مصنوعی نیز می‌توانند در این زنجیره قرار بگیرند؛ یعنی در برخی شرایط، نه فقط ابزار، بلکه بخشی از فرآیند فکری و معنایی ما شوند.

ارتباط فرضیه ذهنِ گسترده با بحث معنا (Intelligibility)
گفتیم مساله‌ اصلی کتاب این است که چگونه می‌توان خروجی‌های هوش مصنوعی را فهمید و دارای معنا دانست. نویسندگان با طرح ایده‌ «ذهن گسترده» می‌خواهند بگویند شاید لازم نباشد بپرسیم «آیا «هوش مصنوعی» (AI) خود مغز یا احساس دارد؟»، بلکه باید بپرسیم: «آیا در تعامل با ما، بخشی از فرآیند فهم انسانی شده است یا نه؟»

به عبارت دیگر، در اینجا معنا و فهم در مرز میان انسان و ماشین شکل می‌گیرد، نه فقط در یکی از آنها.

یعنی وقتی ما با یک مدل زبانی کار می‌کنیم، فهمی مشترک تولید می‌شود که نه کاملا انسانی است و نه کاملا ماشینی، بلکه درهم‌تنیده و گسترده است.هدف نویسندگان از طرح این موضوع این است که نظریه‌های معناشناسی را از محدودیتِ «زیستی بودن» بیرون بیاورند.

در نظریه‌های سنتی فلسفه‌ ذهن، معنا و آگاهی معمولا فقط برای موجودات زنده و مغزدار تعریف می‌شد.

اما نویسندگان می‌گویند اگر بپذیریم ذهن می‌تواند گسترده باشد، باید بپذیریم معنا نیز می‌تواند در سیستم‌های مشترک انسان-ماشین شکل بگیرد. درواقع، شاید هوش مصنوعی خود «ذهن» نداشته باشد، اما وقتی با انسان‌ها همکاری می‌کند، با ذهن انسانی پیوند می‌خورد و بخشی از فرآیند فهم می‌شود. نویسندگان اشاره می‌کنند: «هر نظریه‌ای از محتوا که معنا را فقط به ساختارهای زیستی یا ذهنی انسان محدود کند، نمی‌تواند فهم‌پذیری سیستم‌های مصنوعی‌ای را توضیح دهد که در فعالیت‌های شناختی ما مشارکت دارند.»

اگر معنا را فقط به مغز انسان گره بزنیم، دیگر نمی‌توانیم توضیح دهیم چرا هوش مصنوعی درک‌پذیر است.پس باید نظریه‌ای منعطف‌تر بسازیم که ذهن و معنا را گسترده‌تر ببیند.فرض کنید از یک برنامه هوش مصنوعی برای ترجمه متن استفاده می‌کنید. شما واژه‌ها را انتخاب می‌کنید، مدل ترجمه می‌کند و شما اصلاحش می‌کنید. در این فرآیند، معنا نه فقط در ذهن شما، نه فقط در مدل، بلکه در تعامل بین شما و مدل شکل می‌گیرد.در واقع، هوش مصنوعی در این موقعیت بخشی از ذهن گسترده‌ شما شده است و همین‌جاست که فهم و معنا به ‌صورت میانجی‌وار ساخته می‌شود.

اهمیت کتاب
کتاب «فهم‌پذیر کردن هوش مصنوعی: بنیادهای فلسفی» گامی مهم در پیوند میان فلسفه معنا و هوش مصنوعی است. این کتاب نشان می‌دهد که مباحث فلسفی قدیمی و مفاهیمی مثل معنا، نمایندگی، فرامعناشناسی و برون‌گرایی نه برای فلسفه نظری صرف، بلکه برای درک واقعی چیستی فهم و معنای ماشین‌ها اهمیت دارند.

این اثر ایده‌ای مهم مطرح می‌کند: باید نظریه‌های محتوا را بازتعریف کنیم تا شامل سیستم‌هایی شوند که نه مانند انسان‌ها تجربه دارند و نه همان تاریخچه‌های زبانی یا اجتماعی را دارند. این کتاب تنها یک پروژه‌ نظری نیست، بلکه پیامدهای عملی نیز دارد از سیاست‌گذاری و قانون‌گذاری گرفته تا عدالت در تصمیمات خودکار، مسوولیت‌پذیری در سیستم‌های هوش مصنوعی و طراحی سامانه‌هایی که مردم بتوانند آنها را بفهمند و به آنها اعتماد کنند.

................ تجربه‌ی زندگی دوباره ...............

می‌خواستم این امکان را از خواننده سلب کنم؛ اینکه نتواند نقطه‌ای بیابد و بگوید‌ «اینجا پایانی خوش برای خودم می‌سازم». مقصودم این بود که خواننده، ترس را در تمامی عمق واقعی‌اش تجربه کند... مفهوم «شرف» درحقیقت نام و عنوانی تقلیل‌یافته برای مجموعه‌ای از مسائل بنیادین است که در هم تنیده‌اند؛ مسائلی همچون رابطه‌ فرد و جامعه، تجدد، سیاست و تبعیض جنسیتی. به بیان دیگر، شرف، نقطه‌ تلاقی ده‌ها مسئله‌ ژرف و تأثیرگذار است ...
در شوخی، خود اثر مایه خنده قرار می‌گیرد، اما در بازآفرینی طنز -با احترام به اثر- محتوای آن را با زبان تازه ای، یا حتی با وجوه تازه ای، ارائه می‌دهی... روان شناسی رشد به ما کمک می‌کند بفهمیم کودک در چه سطحی از استدلال است، چه زمانی به تفکر عینی می‌رسد، چه زمانی به تفکر انتزاعی می‌رسد... انسان ایرانی با انسان اروپایی تفاوت دارد. همین طور انسان ایرانیِ امروز تفاوت بارزی با انسان هم عصر «شاهنامه» دارد ...
مشاوران رسانه‌ای با شعار «محصول ما شک است» می‌کوشند ابهام بسازند تا واقعیت‌هایی چون تغییرات اقلیمی یا زیان دخانیات را زیر سؤال ببرند. ویلیامسن در اینجا فلسفه را درگیر با اخلاق و سیاست می‌بیند: «شک، اگر از تعهد به حقیقت جدا شود، نه ابزار آزادی بلکه وسیله گمراهی است»...تفاوت فلسفه با گفت‌وگوی عادی در این است که فیلسوف، همان پرسش‌ها را با نظام‌مندی، دقت و منطق پی می‌گیرد ...
عوامل روان‌شناختی مانند اطمینان بیش‌ازحد، ترس از شکست، حس عدالت‌طلبی، توهم پولی و تاثیر داستان‌ها، نقشی کلیدی در شکل‌گیری تحولات اقتصادی ایفا می‌کنند. این عوامل، که اغلب در مدل‌های سنتی اقتصاد نادیده گرفته می‌شوند، می‌توانند توضیح دهند که چرا اقتصادها دچار رونق‌های غیرمنتظره یا رکودهای عمیق می‌شوند ...
جامعیت علمی همایی در بخش‌های مختلف مشخص است؛ حتی در شرح داستان‌های مثنوی، او معانی لغات را باز می‌کند و به اصطلاحات فلسفی و عرفانی می‌پردازد... نخستین ضعف کتاب، شیفتگی بیش از اندازه همایی به مولانا است که گاه به گزاره‌های غیر قابل اثبات انجامیده است... بر اساس تقسیم‌بندی سه‌گانه «خام، پخته و سوخته» زندگی او را در سه دوره بررسی می‌کند ...