Hallucination

وقتی ماشین‌ها خیال می‌بافند: توهم هوش مصنوعی

فرهاد احمدی

توهمِ هوش مصنوعی پیامدهای اجتماعی و اخلاقی مهمی دارد. اعتماد کورکورانه به خروجی‌های هوش مصنوعی می‌تواند در حوزه‌های حقوقی، پزشکی، روزنامه‌نگاری و آموزش خطرناک باشد…

در سال‌های اخیر، هوش مصنوعی از آزمایشگاه در آمده و به بخشی از زندگی روزمرهٔ ما تبدیل شده. از چت‌بات‌هایی که مثل مشاور آنلاین به پرسش‌های ما پاسخ می‌دهند تا ابزارهای تصویرسازی که می‌توانند فقط با چند کلمه، تصویری تازه بسازند. اما درست در همین نقطهٔ شگفت‌انگیز، پدیده‌ای بحث‌برانگیز سر برآورده: توهم هوش مصنوعی.

وقتی می‌گوییم یک مدل زبانی یا تصویری دچار «توهم» می‌شود، منظور این است که پاسخی می‌دهد که در ظاهر منطقی و درست به نظر می‌رسد، اما در واقع هیچ پشتوانهٔ واقعی ندارد. این خطاها گاهی خنده‌دارند، مثل وقتی که یک برنامهٔ تصویرساز به کسی دست‌های شش‌انگشتی می‌دهد. اما گاهی پیامدهای سنگینی دارند، مثل وقتی که یک وکیل آمریکایی به دادگاه مدارک ساختگی ارائه کرد که همه‌ش توسط چت‌جی‌پی‌تی ساخته شده بود.

مسأله فقط خطای نرم‌افزاری نیست. «توهم» واژه‌ای است که ناخودآگاه ما را به ذهن انسان پیوند می‌دهد؛ جایی که خاطره‌های ساختگی، رؤیاها یا حتی بیماری‌های روانی می‌توانند باعث شوند چیزی را که وجود خارجی ندارد واقعی بپنداریم. همین قیاس باعث می‌شود پرسشی عمیق‌تر مطرح شود: آیا ماشین‌ها واقعا «توهم» می‌زنند یا ما داریم با استعاره‌ای فریبنده روبه‌رو می‌شویم؟

ریشهٔ اصطلاح و تعریف پدیده

اصطلاح «توهم» در حوزهٔ هوش مصنوعی در اوایل دههٔ ۲۰۲۰ در محافل عمومی رسانه‌ای باب شد. از قدیم‌الایام دانشمندان علوم رایانه معمولا از واژه‌هایی مثل خطا یا خروجی نادرست برای این نوع موارد استفاده می‌کردند. اما وقتی مدل‌های زبانی بزرگ یا ال‌ال‌ام‌ها ‌ــ‌ مثل جی‌پی‌تی یا لامدای گوگل ‌ــ‌ شروع کردند به تولید متن‌هایی که نه فقط اشتباه، بلکه کاملا «خیالی» بودند، جامعهٔ علمی به این نتیجه رسید که واژه‌های قبلی جواب نمی‌دهد.

«توهم» اصطلاحی‌ست که از علوم پزشکی و روان‌شناسی قرض گرفته شده. در روان‌پزشکی، توهم به تجربه‌ای ادراکی گفته می‌شود که فرد آن را واقعی تلقی می‌کند، در حالی که در دنیای بیرون وجود ندارد. مثلا شنیدن صدایی که هیچ منبع خارجی ندارد. وقتی پژوهشگران دیدند یک مدل هوش مصنوعی با اطمینان کامل منابع غیرواقعی می‌سازد یا داده‌هایی بی‌پایه تولید می‌کند، استعارهٔ «توهم» به نظرشان دقیق‌تر و پرمعنا آمد.

البته باید توجه داشت که در ماشین‌ها خبری از ادراک و تجربهٔ ذهنی نیست. یک الگوریتم نمی‌شنود یا نمی‌بیند؛ فقط احتمالات آماری را پردازش می‌کند. برای همین بعضی پژوهشگران می‌گویند استفاده از کلمهٔ «توهم» بیشتر یک ابزار ارتباطی‌ست تا یک تعریف علمی دقیق. با این حال همین استعاره کمک کرده پدیده‌ای فنی به زبان عمومی وارد شود و مردم راحت‌تر آن را درک کنند.

تفاوت توهم، خطا و دروغ
خطا
یعنی خروجی‌ای که درست نیست، مثل یک ماشین‌حساب که حاصل جمع را اشتباه می‌دهد. دروغ یعنی آگاهی از نادرست بودن یک گزاره، ولی باز هم بیان آن. ماشین‌ها هنوز به معنای انسانیِ کلمه، «دروغ» نمی‌گویند، چون آگاهی و نیّت ندارند. توهم یعنی خلق محتوای نادرست با ظاهری بسیار قانع‌کننده. این‌جا ماشین وانمود می‌کند چیزی درست است، حتی اگر هیچ واقعیتی پشت آن نباشد.

مثلا اگر از یک چت‌بات بپرسید «کتاب‌های منتشرشدهٔ آلبر کامو بعد از سال ۲۰۰۰ کدام‌اند؟» ممکن است با اطمینان کامل فهرستی از عناوین ساختگی ارائه دهد. این خروجی نه صرفا «اشتباه» است و نه «دروغ»، بلکه نمونه‌ای کلاسیک از توهم هوش مصنوعی است.

نمونه‌های واقعی و بحث‌برانگیز

توهمات هوش مصنوعی دیگر صرفا مسئلهٔ نظری نیست؛ نمونه‌های واقعی و تاثیرگذار آن‌ها در رسانه‌ها و زندگی روزمره به چشم می‌خورند. یکی از شناخته‌شده‌ترین موارد مربوط به حوزهٔ حقوق و قضاست. سال ۲۰۲۳، یک وکیل آمریکایی برای جمع‌آوری منابع پرونده‌های قضایی به چت‌جی‌پی‌تی مراجعه کرد و متوجه نشد که مدل، منابعی کاملا ساختگی و غیرواقعی ارائه داده است. این اشتباه باعث شد قاضی پرونده نسبت به اعتبار کل منابع تردید کند و نشان داد که اعتماد کورکورانه به هوش مصنوعی می‌تواند پیامدهای قانونی جدی هم داشته باشد.

در دنیای خبر و روزنامه‌نگاری، توهم هوش مصنوعی تهدیدی واضح است. بسیاری از چت‌بات‌ها و مدل‌های زبانی می‌توانند متنی جذاب و قانع‌کننده تولید کنند که ظاهر خبری دارد، ولی بدون هیچ پایهٔ واقعی. یکی از موارد شناخته‌شده در سال‌های اخیر، تولید گزارش‌های جعلی از وقایع بین‌المللی بود که حتی خبرنگاران حرفه‌ای را گمراه می‌کرد. اگرچه این محتواها به سرعت توسط کارشناسان رد می‌شد، اما نشان داد انتشار سریع و گستردهٔ اطلاعات ساختگی می‌تواند بر افکار عمومی تأثیر بگذارد.

در حوزهٔ تصویرسازی هم مدل‌های هوش مصنوعی دچار توهمات بصری می‌شوند. مثلا وقتی که یک مدل تصویری مثل دال–ای یا میدجورنی سعی می‌کند تصویر آدم خلق کند، گاهی دست‌ها و انگشت‌ها به شکل غیرطبیعی یا اضافی ظاهر می‌شوند. یا وقتی ازشان خواسته می‌شود صحنه‌ای تاریخی بسازد، ممکن است جزئیات غیرواقعی و قابل‌باور اما خیالی به تصویر اضافه کنند. این نمونه‌ها نشان می‌دهد که حتی در دنیای بصری هم توهم ماشین‌ها محدود به متن نیست.

این توهمات، به اشتباهات ساده ختم نمی‌شوند؛ بلکه بر اعتماد عمومی و ادراک ما از فناوری تأثیر می‌گذارند. وقتی مردم یا سازمان‌ها بدون آگاهی کامل به اطلاعاتی که از هوش مصنوعی می‌آید اعتماد کنند، ممکن است تصمیمات مهمی بر پایهٔ داده‌های ساختگی اتخاذ شود. همین خطر باعث شده تا پژوهشگران و شرکت‌های سازندهٔ هوش مصنوعی به دنبال روش‌های کاهش و کنترل این پدیده باشند.

دلایل فنی توهمات

برای درک اینکه چرا هوش مصنوعی دچار توهم می‌شود، باید کمی به پشت‌صحنهٔ فناوری نگاه کنیم. مدل‌های زبانی بزرگ یا ال‌ال‌ام‌ها (مثل چت‌جی‌پی‌تی) بر اساس الگوریتم‌های پیش‌بینیِ کلمه بعدی ساخته شده‌اند. یعنی هدف‌شان این نیست که «حقیقت» را کشف کنند، بلکه این‌که بر اساس داده‌ها و یادگیری، محتمل‌ترین پاسخ را ارائه دهند.

پردازش آماری و احتمالات
در این مدل‌های زبانی، هر واژه با توجه به واژه‌های قبلی امتیاز آماری می‌گیرد. مدل سپس کلمه‌ای با بیشترین احتمال یا ترکیبی از کلمات محتمل را انتخاب می‌کند. این فرآیند باعث می‌شود متن نهایی طبیعی و روان به نظر برسد، حتی وقتی کاملا نادرست است. به عبارت دیگر، هوش مصنوعی «تخمین می‌زند» چه چیزی منطقی به نظر می‌رسد نه اینکه بررسی کند آیا درست است یا نه.

نقش داده‌های ناقص و سوگیری
داده‌هایی که این مدل‌ها با آن‌ها آموزش دیده‌اند هم در مشکل نقش دارند. اینترنت و منابع دیجیتال پر از اطلاعات نادرست و ناقص است. وقتی مدل با چنین داده‌هایی آموزش می‌بیند، امکان تولید محتوای خیالی افزایش می‌یابد. علاوه بر این، سوگیریِ داده‌ها باعث می‌شود بعضی موضوعات با اطمینانِ بیش‌ازحد و برخی دیگر با عدمِ قطعیتِ زیاد تولید شوند، که هر دو می‌توانند به توهم منجر شوند.

محدودیت‌های معماری و حافظه
معماریِ فنیِ مدل‌های فعلی هم محدودیت‌هایی دارد. مثلا ال‌ال‌ام‌ها حافظهٔ طولانی‌مدتِ انسانی ندارند و نمی‌توانند وقایع پیچیده یا ارتباطات بلندمدت بین اطلاعات را همیشه به درستی دنبال کنند. این محدودیت باعث می‌شود اطلاعات پراکنده و نامرتبط را به هم بچسبانند و داستان‌های خیالی بسازند.

قیاس با ذهن انسان
یکی از جذاب‌ترین جنبه‌ها، قیاس با ذهن انسان است. ما هم گاهی دچار خطاهای حافظه یا توهم می‌شویم؛ مثلا چیزی را که هرگز ندیده‌ایم به خاطر می‌آوریم یا رویاها و خیال‌های‌مان را واقعی تصور می‌کنیم. در حالی که مغز انسان و الگوریتم هوش مصنوعی کاملا متفاوت‌ند، این تشابهِ استعاری به پژوهشگران کمک کرده تا رفتار ماشین‌ها را بهتر توصیف کنند.

پیامدهای اجتماعی و اخلاقی

توهمات هوش مصنوعی محدود به آزمایشگاه یا صفحهٔ نمایش نیست؛ پیامدهایش مستقیما به جامعه و زندگی روزمره انسان‌ها مربوط است.

خطرات اجتماعی
در حوزهٔ حقوقی، تکیه بر اطلاعاتِ ساختگی می‌تواند تصمیمات قضایی را متاثر کند، همان‌طور که در نمونهٔ وکیل آمریکایی رخ داد. در پزشکی اگر هوش مصنوعی به عنوان مشاور تشخیصی استفاده شود و اطلاعات نادرست ارائه دهد، جان بیماران در خطر می‌افتد. در روزنامه‌نگاری و آموزش هم انتشار داده‌های نادرست یا داستان‌های خیالی می‌تواند بر افکار عمومی تأثیر بگذارد و اعتماد مردم به منابع رسمی را کم کند.

پرسش‌های اخلاقی
آیا می‌توان ماشینی را که «توهم می‌زند» مسئول دانست؟ از آنجا که ماشین‌ها آگاهی و نیّت ندارند، پاسخِ کوتاه نه است. مسئولیت همیشه بر عهدهٔ سازنده یا کاربر است. با این حال، این مسئلهٔ اخلاقی پرسش‌های عمیق‌تری هم ایجاد می‌کند: آیا انتشار محتوای ساختگی از طریق ماشین‌ها همانند نشر عمدی دروغ است؟ آیا باید الگوریتم‌ها طوری طراحی شوند که هرگز «خیال‌پردازی» نکنند؟

ابعاد فلسفی
توهم هوش مصنوعی ما را وادار به بازاندیشی دربارهٔ ماهیت هوش و خلاقیت می‌کند. وقتی یک مدل می‌تواند داستان، تصویر یا متن قابل باور اما خیالی بسازد، سوال پیش می‌آید که آیا این نوعی خلاقیت است یا صرفا «نویز»ی در سیستم؟ برخی پژوهشگران معتقدند این توهمات نوعی تقلید آماری از خلاقیت انسان است، اما بدون تجربهٔ ذهنی و آگاهی.

از طرفی، این پدیده مرز واقعیت و شبیه‌سازی را جابه‌جا می‌کند. وقتی انسان‌ها و ماشین‌ها هر دو می‌توانند روایت‌هایی بسازند که واقعی به نظر می‌رسند اما واقعی نیستند، پرسشی عمیق مطرح می‌شود: آیا در نهایت، هر روایت از جهان، انسانی یا ماشینی، همیشه بخشی از خیال است؟

راهکارها و آینده

پژوهشگران و شرکت‌های سازندهٔ هوش مصنوعی به خوبی از خطرات توهمِ ماشین آگاهند و تلاش می‌کنند با روش‌های مختلف این پدیده را کاهش دهند.

روش‌های فنی برای کاهش توهم
راستی‌آزماییِ خودکار
: برخی مدل‌ها به منابع معتبر آنلاین متصل می‌شوند تا صحت اطلاعات تولیدی را بسنجند. مدل‌های هیبرید: ترکیب مدل‌های زبانی با سیستم‌های پایگاه دادهٔ قابل استعلام، باعث می‌شود محتوا کمتر به توهم مبتلا شود. آموزش با داده‌های کنترل‌شده: استفاده از مجموعه داده‌های معتبر و محدود کردن داده‌های ناامن یا ناقص، به کاهش تولید اطلاعات خیالی کمک می‌کند.

شفافیت و مقررات‌گذاری
یک گام مهم، شفاف‌سازی دربارهٔ محدودیت‌ها و قابلیت‌های این مدل‌هاست. کاربران باید بدانند که یک چت‌بات یا مدل تصویری ممکن است توهم بزند و نباید به تمام خروجی‌اش اعتماد کنند. دولت‌ها و سازمان‌های بین‌المللی هم در حال بررسی مقرراتی برای مسئولیت‌پذیریِ تولیدکنندگانِ هوش مصنوعی هستند تا از سوءاستفاده یا پیامدهای ناخواسته جلوگیری شود.

آیندهٔ توهمات
با پیشرفت فناوری، برخی امیدوارند که این توهمات به حداقل برسد. ولی خیلی از متخصصان معتقدند این توهمات بخشی جدانشدنی از ذاتِ مدل‌های زبانی و تصویری هستند، چون این سیستم‌ها بر اساس احتمالات و پیش‌بینی ساخته شده‌اند، نه حقیقت مطلق. ممکن است روش‌هایی برای کاهش شدت و تعداد توهمات وجود داشته باشد، ولی حذف کامل‌شان احتمالا غیرممکن است.

از طرفی هم توهمات می‌تواند فرصت‌های تازه‌ای ایجاد کند. مثلا در هنر و ادبیات، تولید داستان‌های خیالی توسط ماشین‌ها می‌تواند به خلاقیت انسان‌ها کمک کند و ایده‌های نو خلق کند. بنابراین، توهمات هوش مصنوعی هم تهدیدند و هم امکان تازه‌ای برای خلاقیت و تجربهٔ انسانی محسوب می‌شوند.

سخن آخر

توهم هوش مصنوعی پدیده‌ای‌ست فراتر از خطاهای فنی ساده، و نشان‌دهندهٔ محدودیت‌ها و پیچیدگی‌های مدل‌های زبانی و تصویری مدرن. وقتی ماشین‌ها اطلاعات نادرست اما قانع‌کننده تولید می‌کنند، با یک مشکل واقعی روبه‌رو می‌شویم: حتی پیشرفته‌ترین الگوریتم‌ها نمی‌توانند حقیقت را به معنای انسانی‌اش درک کنند، بلکه فقط با احتمالات و الگوها بازی می‌کنند.

این پدیده پیامدهای اجتماعی و اخلاقی مهمی دارد. اعتماد کورکورانه به خروجی‌های هوش مصنوعی می‌تواند در حوزه‌های حقوقی، پزشکی، روزنامه‌نگاری و آموزش خطرناک باشد. از طرف دیگر، توهماتْ پرسش‌های فلسفی عمیقی دربارهٔ ماهیت هوش، خلاقیت و مرز میان واقعیت و خیال مطرح می‌کنند.

راهکارهایی مثل راستی‌آزماییِ خودکار، مدل‌های هیبرید، و شفاف‌سازی محدودیت‌ها می‌تواند خطرات توهم را کاهش دهد، ولی بسیاری معتقدند حذف کاملش غیرممکن است. شاید در آینده، توهمات نه تنها تهدیدی برای اعتماد عمومی باشند، بلکه فرصتی برای خلاقیت انسانی و همکاری تازه میان انسان و ماشین فراهم کند.

در نهایت، توهماتِ هوش مصنوعی یادآور این نکته‌اند که ماشین‌ها هرگز جای انسان را در داوریِ حقیقت نمی‌گیرند. ما و ماشین‌ها هر دو روایت‌گر هستیم، اما فقط انسان می‌تواند واقعیت را با آگاهی و تجربهٔ ذهنی تشخیص دهد. در مواجهه با این پدیده، ما نیازمند آگاهی، شکاکیت و آموزش کاربران هستیم تا بتوانیم از عواید هوش مصنوعی به‌طور مسئولانه و هوشمندانه بهره‌مند شویم.

کتابستان

تذکره‌الاولیای معاصر : جلد دوم

مهدی جامی

تذکره‌الاولیای معاصر : جلد اول

مهدی جامی

دوسیه دیورند: گزارش‌ها، توافق‌ها و یادداشت‌ها

اسناد دوسیه دیورند

گلشهر: خاطرات یک آواره

علی احمدی دولت

گلشهر: خاطرات یک زمین‌شناس

علی احمدی دولت