در سالهای اخیر، هوش مصنوعی از آزمایشگاه در آمده و به بخشی از زندگی روزمرهٔ ما تبدیل شده. از چتباتهایی که مثل مشاور آنلاین به پرسشهای ما پاسخ میدهند تا ابزارهای تصویرسازی که میتوانند فقط با چند کلمه، تصویری تازه بسازند. اما درست در همین نقطهٔ شگفتانگیز، پدیدهای بحثبرانگیز سر برآورده: توهم هوش مصنوعی.
وقتی میگوییم یک مدل زبانی یا تصویری دچار «توهم» میشود، منظور این است که پاسخی میدهد که در ظاهر منطقی و درست به نظر میرسد، اما در واقع هیچ پشتوانهٔ واقعی ندارد. این خطاها گاهی خندهدارند، مثل وقتی که یک برنامهٔ تصویرساز به کسی دستهای ششانگشتی میدهد. اما گاهی پیامدهای سنگینی دارند، مثل وقتی که یک وکیل آمریکایی به دادگاه مدارک ساختگی ارائه کرد که همهش توسط چتجیپیتی ساخته شده بود.
مسأله فقط خطای نرمافزاری نیست. «توهم» واژهای است که ناخودآگاه ما را به ذهن انسان پیوند میدهد؛ جایی که خاطرههای ساختگی، رؤیاها یا حتی بیماریهای روانی میتوانند باعث شوند چیزی را که وجود خارجی ندارد واقعی بپنداریم. همین قیاس باعث میشود پرسشی عمیقتر مطرح شود: آیا ماشینها واقعا «توهم» میزنند یا ما داریم با استعارهای فریبنده روبهرو میشویم؟
ریشهٔ اصطلاح و تعریف پدیده
اصطلاح «توهم» در حوزهٔ هوش مصنوعی در اوایل دههٔ ۲۰۲۰ در محافل عمومی رسانهای باب شد. از قدیمالایام دانشمندان علوم رایانه معمولا از واژههایی مثل خطا یا خروجی نادرست برای این نوع موارد استفاده میکردند. اما وقتی مدلهای زبانی بزرگ یا الالامها ــ مثل جیپیتی یا لامدای گوگل ــ شروع کردند به تولید متنهایی که نه فقط اشتباه، بلکه کاملا «خیالی» بودند، جامعهٔ علمی به این نتیجه رسید که واژههای قبلی جواب نمیدهد.
«توهم» اصطلاحیست که از علوم پزشکی و روانشناسی قرض گرفته شده. در روانپزشکی، توهم به تجربهای ادراکی گفته میشود که فرد آن را واقعی تلقی میکند، در حالی که در دنیای بیرون وجود ندارد. مثلا شنیدن صدایی که هیچ منبع خارجی ندارد. وقتی پژوهشگران دیدند یک مدل هوش مصنوعی با اطمینان کامل منابع غیرواقعی میسازد یا دادههایی بیپایه تولید میکند، استعارهٔ «توهم» به نظرشان دقیقتر و پرمعنا آمد.
البته باید توجه داشت که در ماشینها خبری از ادراک و تجربهٔ ذهنی نیست. یک الگوریتم نمیشنود یا نمیبیند؛ فقط احتمالات آماری را پردازش میکند. برای همین بعضی پژوهشگران میگویند استفاده از کلمهٔ «توهم» بیشتر یک ابزار ارتباطیست تا یک تعریف علمی دقیق. با این حال همین استعاره کمک کرده پدیدهای فنی به زبان عمومی وارد شود و مردم راحتتر آن را درک کنند.
تفاوت توهم، خطا و دروغ
خطا یعنی خروجیای که درست نیست، مثل یک ماشینحساب که حاصل جمع را اشتباه میدهد. دروغ یعنی آگاهی از نادرست بودن یک گزاره، ولی باز هم بیان آن. ماشینها هنوز به معنای انسانیِ کلمه، «دروغ» نمیگویند، چون آگاهی و نیّت ندارند. توهم یعنی خلق محتوای نادرست با ظاهری بسیار قانعکننده. اینجا ماشین وانمود میکند چیزی درست است، حتی اگر هیچ واقعیتی پشت آن نباشد.
مثلا اگر از یک چتبات بپرسید «کتابهای منتشرشدهٔ آلبر کامو بعد از سال ۲۰۰۰ کداماند؟» ممکن است با اطمینان کامل فهرستی از عناوین ساختگی ارائه دهد. این خروجی نه صرفا «اشتباه» است و نه «دروغ»، بلکه نمونهای کلاسیک از توهم هوش مصنوعی است.
نمونههای واقعی و بحثبرانگیز
توهمات هوش مصنوعی دیگر صرفا مسئلهٔ نظری نیست؛ نمونههای واقعی و تاثیرگذار آنها در رسانهها و زندگی روزمره به چشم میخورند. یکی از شناختهشدهترین موارد مربوط به حوزهٔ حقوق و قضاست. سال ۲۰۲۳، یک وکیل آمریکایی برای جمعآوری منابع پروندههای قضایی به چتجیپیتی مراجعه کرد و متوجه نشد که مدل، منابعی کاملا ساختگی و غیرواقعی ارائه داده است. این اشتباه باعث شد قاضی پرونده نسبت به اعتبار کل منابع تردید کند و نشان داد که اعتماد کورکورانه به هوش مصنوعی میتواند پیامدهای قانونی جدی هم داشته باشد.
در دنیای خبر و روزنامهنگاری، توهم هوش مصنوعی تهدیدی واضح است. بسیاری از چتباتها و مدلهای زبانی میتوانند متنی جذاب و قانعکننده تولید کنند که ظاهر خبری دارد، ولی بدون هیچ پایهٔ واقعی. یکی از موارد شناختهشده در سالهای اخیر، تولید گزارشهای جعلی از وقایع بینالمللی بود که حتی خبرنگاران حرفهای را گمراه میکرد. اگرچه این محتواها به سرعت توسط کارشناسان رد میشد، اما نشان داد انتشار سریع و گستردهٔ اطلاعات ساختگی میتواند بر افکار عمومی تأثیر بگذارد.
در حوزهٔ تصویرسازی هم مدلهای هوش مصنوعی دچار توهمات بصری میشوند. مثلا وقتی که یک مدل تصویری مثل دال–ای یا میدجورنی سعی میکند تصویر آدم خلق کند، گاهی دستها و انگشتها به شکل غیرطبیعی یا اضافی ظاهر میشوند. یا وقتی ازشان خواسته میشود صحنهای تاریخی بسازد، ممکن است جزئیات غیرواقعی و قابلباور اما خیالی به تصویر اضافه کنند. این نمونهها نشان میدهد که حتی در دنیای بصری هم توهم ماشینها محدود به متن نیست.
این توهمات، به اشتباهات ساده ختم نمیشوند؛ بلکه بر اعتماد عمومی و ادراک ما از فناوری تأثیر میگذارند. وقتی مردم یا سازمانها بدون آگاهی کامل به اطلاعاتی که از هوش مصنوعی میآید اعتماد کنند، ممکن است تصمیمات مهمی بر پایهٔ دادههای ساختگی اتخاذ شود. همین خطر باعث شده تا پژوهشگران و شرکتهای سازندهٔ هوش مصنوعی به دنبال روشهای کاهش و کنترل این پدیده باشند.
دلایل فنی توهمات
برای درک اینکه چرا هوش مصنوعی دچار توهم میشود، باید کمی به پشتصحنهٔ فناوری نگاه کنیم. مدلهای زبانی بزرگ یا الالامها (مثل چتجیپیتی) بر اساس الگوریتمهای پیشبینیِ کلمه بعدی ساخته شدهاند. یعنی هدفشان این نیست که «حقیقت» را کشف کنند، بلکه اینکه بر اساس دادهها و یادگیری، محتملترین پاسخ را ارائه دهند.
پردازش آماری و احتمالات
در این مدلهای زبانی، هر واژه با توجه به واژههای قبلی امتیاز آماری میگیرد. مدل سپس کلمهای با بیشترین احتمال یا ترکیبی از کلمات محتمل را انتخاب میکند. این فرآیند باعث میشود متن نهایی طبیعی و روان به نظر برسد، حتی وقتی کاملا نادرست است. به عبارت دیگر، هوش مصنوعی «تخمین میزند» چه چیزی منطقی به نظر میرسد نه اینکه بررسی کند آیا درست است یا نه.
نقش دادههای ناقص و سوگیری
دادههایی که این مدلها با آنها آموزش دیدهاند هم در مشکل نقش دارند. اینترنت و منابع دیجیتال پر از اطلاعات نادرست و ناقص است. وقتی مدل با چنین دادههایی آموزش میبیند، امکان تولید محتوای خیالی افزایش مییابد. علاوه بر این، سوگیریِ دادهها باعث میشود بعضی موضوعات با اطمینانِ بیشازحد و برخی دیگر با عدمِ قطعیتِ زیاد تولید شوند، که هر دو میتوانند به توهم منجر شوند.
محدودیتهای معماری و حافظه
معماریِ فنیِ مدلهای فعلی هم محدودیتهایی دارد. مثلا الالامها حافظهٔ طولانیمدتِ انسانی ندارند و نمیتوانند وقایع پیچیده یا ارتباطات بلندمدت بین اطلاعات را همیشه به درستی دنبال کنند. این محدودیت باعث میشود اطلاعات پراکنده و نامرتبط را به هم بچسبانند و داستانهای خیالی بسازند.
قیاس با ذهن انسان
یکی از جذابترین جنبهها، قیاس با ذهن انسان است. ما هم گاهی دچار خطاهای حافظه یا توهم میشویم؛ مثلا چیزی را که هرگز ندیدهایم به خاطر میآوریم یا رویاها و خیالهایمان را واقعی تصور میکنیم. در حالی که مغز انسان و الگوریتم هوش مصنوعی کاملا متفاوتند، این تشابهِ استعاری به پژوهشگران کمک کرده تا رفتار ماشینها را بهتر توصیف کنند.
پیامدهای اجتماعی و اخلاقی
توهمات هوش مصنوعی محدود به آزمایشگاه یا صفحهٔ نمایش نیست؛ پیامدهایش مستقیما به جامعه و زندگی روزمره انسانها مربوط است.
خطرات اجتماعی
در حوزهٔ حقوقی، تکیه بر اطلاعاتِ ساختگی میتواند تصمیمات قضایی را متاثر کند، همانطور که در نمونهٔ وکیل آمریکایی رخ داد. در پزشکی اگر هوش مصنوعی به عنوان مشاور تشخیصی استفاده شود و اطلاعات نادرست ارائه دهد، جان بیماران در خطر میافتد. در روزنامهنگاری و آموزش هم انتشار دادههای نادرست یا داستانهای خیالی میتواند بر افکار عمومی تأثیر بگذارد و اعتماد مردم به منابع رسمی را کم کند.
پرسشهای اخلاقی
آیا میتوان ماشینی را که «توهم میزند» مسئول دانست؟ از آنجا که ماشینها آگاهی و نیّت ندارند، پاسخِ کوتاه نه است. مسئولیت همیشه بر عهدهٔ سازنده یا کاربر است. با این حال، این مسئلهٔ اخلاقی پرسشهای عمیقتری هم ایجاد میکند: آیا انتشار محتوای ساختگی از طریق ماشینها همانند نشر عمدی دروغ است؟ آیا باید الگوریتمها طوری طراحی شوند که هرگز «خیالپردازی» نکنند؟
ابعاد فلسفی
توهم هوش مصنوعی ما را وادار به بازاندیشی دربارهٔ ماهیت هوش و خلاقیت میکند. وقتی یک مدل میتواند داستان، تصویر یا متن قابل باور اما خیالی بسازد، سوال پیش میآید که آیا این نوعی خلاقیت است یا صرفا «نویز»ی در سیستم؟ برخی پژوهشگران معتقدند این توهمات نوعی تقلید آماری از خلاقیت انسان است، اما بدون تجربهٔ ذهنی و آگاهی.
از طرفی، این پدیده مرز واقعیت و شبیهسازی را جابهجا میکند. وقتی انسانها و ماشینها هر دو میتوانند روایتهایی بسازند که واقعی به نظر میرسند اما واقعی نیستند، پرسشی عمیق مطرح میشود: آیا در نهایت، هر روایت از جهان، انسانی یا ماشینی، همیشه بخشی از خیال است؟
راهکارها و آینده
پژوهشگران و شرکتهای سازندهٔ هوش مصنوعی به خوبی از خطرات توهمِ ماشین آگاهند و تلاش میکنند با روشهای مختلف این پدیده را کاهش دهند.
روشهای فنی برای کاهش توهم
راستیآزماییِ خودکار: برخی مدلها به منابع معتبر آنلاین متصل میشوند تا صحت اطلاعات تولیدی را بسنجند. مدلهای هیبرید: ترکیب مدلهای زبانی با سیستمهای پایگاه دادهٔ قابل استعلام، باعث میشود محتوا کمتر به توهم مبتلا شود. آموزش با دادههای کنترلشده: استفاده از مجموعه دادههای معتبر و محدود کردن دادههای ناامن یا ناقص، به کاهش تولید اطلاعات خیالی کمک میکند.
شفافیت و مقرراتگذاری
یک گام مهم، شفافسازی دربارهٔ محدودیتها و قابلیتهای این مدلهاست. کاربران باید بدانند که یک چتبات یا مدل تصویری ممکن است توهم بزند و نباید به تمام خروجیاش اعتماد کنند. دولتها و سازمانهای بینالمللی هم در حال بررسی مقرراتی برای مسئولیتپذیریِ تولیدکنندگانِ هوش مصنوعی هستند تا از سوءاستفاده یا پیامدهای ناخواسته جلوگیری شود.
آیندهٔ توهمات
با پیشرفت فناوری، برخی امیدوارند که این توهمات به حداقل برسد. ولی خیلی از متخصصان معتقدند این توهمات بخشی جدانشدنی از ذاتِ مدلهای زبانی و تصویری هستند، چون این سیستمها بر اساس احتمالات و پیشبینی ساخته شدهاند، نه حقیقت مطلق. ممکن است روشهایی برای کاهش شدت و تعداد توهمات وجود داشته باشد، ولی حذف کاملشان احتمالا غیرممکن است.
از طرفی هم توهمات میتواند فرصتهای تازهای ایجاد کند. مثلا در هنر و ادبیات، تولید داستانهای خیالی توسط ماشینها میتواند به خلاقیت انسانها کمک کند و ایدههای نو خلق کند. بنابراین، توهمات هوش مصنوعی هم تهدیدند و هم امکان تازهای برای خلاقیت و تجربهٔ انسانی محسوب میشوند.
سخن آخر
توهم هوش مصنوعی پدیدهایست فراتر از خطاهای فنی ساده، و نشاندهندهٔ محدودیتها و پیچیدگیهای مدلهای زبانی و تصویری مدرن. وقتی ماشینها اطلاعات نادرست اما قانعکننده تولید میکنند، با یک مشکل واقعی روبهرو میشویم: حتی پیشرفتهترین الگوریتمها نمیتوانند حقیقت را به معنای انسانیاش درک کنند، بلکه فقط با احتمالات و الگوها بازی میکنند.
این پدیده پیامدهای اجتماعی و اخلاقی مهمی دارد. اعتماد کورکورانه به خروجیهای هوش مصنوعی میتواند در حوزههای حقوقی، پزشکی، روزنامهنگاری و آموزش خطرناک باشد. از طرف دیگر، توهماتْ پرسشهای فلسفی عمیقی دربارهٔ ماهیت هوش، خلاقیت و مرز میان واقعیت و خیال مطرح میکنند.
راهکارهایی مثل راستیآزماییِ خودکار، مدلهای هیبرید، و شفافسازی محدودیتها میتواند خطرات توهم را کاهش دهد، ولی بسیاری معتقدند حذف کاملش غیرممکن است. شاید در آینده، توهمات نه تنها تهدیدی برای اعتماد عمومی باشند، بلکه فرصتی برای خلاقیت انسانی و همکاری تازه میان انسان و ماشین فراهم کند.
در نهایت، توهماتِ هوش مصنوعی یادآور این نکتهاند که ماشینها هرگز جای انسان را در داوریِ حقیقت نمیگیرند. ما و ماشینها هر دو روایتگر هستیم، اما فقط انسان میتواند واقعیت را با آگاهی و تجربهٔ ذهنی تشخیص دهد. در مواجهه با این پدیده، ما نیازمند آگاهی، شکاکیت و آموزش کاربران هستیم تا بتوانیم از عواید هوش مصنوعی بهطور مسئولانه و هوشمندانه بهرهمند شویم.





