در جنگلهای کوهستانیِ اوت لونگدوک در منطقهٔ آویرون در فرانسه او جانوری عجیب محسوب میشد: برهنه، ترسیده، و معمولا قوز کرده روی هر چهار دست و پا، در حال کاویدنِ بوته. اما او فقط یک جانور نبود. ویکتور (نامی که بعدا با آن شناس شد) یک شگفتی علمی بود: یک کودک وحشی، شاید ۱۲ ساله، بدون هیچ تماسی با تمدن یا جامعه.
گزارشها مختلف است، ولی میدانیم که ویکتور را به یک بیمارستان بردند و از آنجا اخبار کشفِ او بهسرعت منتشر شد. تا زمستان ۱۷۹۹، ماجرای وحشی آویرون به پاریس رسید و جامعهٔ باسوادِ شهر را شوکه کرد. در آغاز قرن تازه، فرانسه در بحبوحهٔ یک انتقال قدرت حساس بود. این جریان صرفا به خاطر ستم روزافزون خاندان بناپارت نبود. از چند دههٔ قبل، خردگرایی و پرسشگریِ فلاسفهای چون ژانژاک روسو و بارون دو مونتسکیو اساسِ دین را در کشور لرزانده بود.
دورهٔ بحثهای جدی در این باره بود که چه قدرت یا طبیعتی به انسان اعطاء شده است. آیا جبرِ بیولوژیک در رشد خودآگاهیِ برترِ ما نقش داشت؟ یا این جوامع ما بوده که ظرفیت بیشتری برای استدلال نسبت به آنچه طبیعت به تنهایی میتوانست به ما بدهد به ما داد؟
ویکتور ــ که تنها یک نمونه از ذهنِ انسانیِ رشدیافته بدون زبان یا جامعه بود ــ گویا میتوانست بسیاری از اینگونه پرسشها را پاسخ دهد. برای همین هم ورود او به پاریس در سال ۱۸۰۰، با هیجان زیادی همراه بود.
پزشکی به اسم ژان مارک گاسپار ایتار که مسئول توانبخشی ویکتور شد، نوشت: «پیش از ورود او [ویکتور]، توقعاتِ هوشمندانه اما نامعقول در میان مردم پاریس شکل گرفت. خیلی از افرادِ کنجکاو، با شادی فراوان انتظار داشتند او شیفتهٔ آن همه زیبایی در پایتخت شود. اما در عوض چه دیدند؟ پسرکی شلخته و منزجرکننده… که کسانی را که از او خوششان نمیآمد گاز میگرفت، و هیچ محبتی به کسانی که از او مراقبت میکردند نشان نمیداد؛ و خلاصه اینکه نسبت به هر کسی بیاعتنا بود، و به هیچ چیزی توجه نمیکرد».
بسیاری از فرهیختگانِ پاریس در مواجهه با یک کودک مطرود و عقبافتاده به او تاختند. برخی او را متقلب نامیدند؛ دیگران او را یک ابلهِ مادرزاد خواندند: یک ذهن ناقصالخلقه یا حلقهٔ مفقودهٔ حیات یا شاید یک نژاد انسانیِ دونپایهتر. منتقدانِ او به موضعی سختگیرانه یعنی ذاتگراییِ بیولوژیک روی آوردند ــ که واکنشی محافظهکارانه بود به ایدههای روشنگری در باب استثناء بودن ذهن ما و اینکه استعدادهای ما صرفا با نابرابریهای طبیعی تعیین میشود.
برخلاف این مخالفان، ایتار هرگز شک نداشت که پسرک هنوز قادر به تفکر درونی عمیق است، چون گهگاه شورِ تعمق را در او مشاهده میکرد. ولی زود دریافت که بدون قدرتِ نطق، این تعمق برای همیشه در ذهن ویکتور زندانی خواهد شد. همینطور ویکتور بدون تسلط بر ظرائف کلامی، نمیتوانست مطالبات انتزاعیتری را که مردم متمدن تعریف کردند کسب کند: مثلا درک موسیقی زیبا، هنرهای زیبا، یا لذت معاشرت با دیگران.
ایتار سالها صرف تعلیم ویکتور کرد، به امید آنکه شاید او قدرت تکلم پیدا کند. ولی هرگز موفقیتی در این امر پیدا نکرد. او ویکتور را از آب و غذا و محبت محروم کرد بلکه او از کلمات برای بیان امیالش استفاده کند، ولی به رغم هرگونه نقص جسمی، به نظر میرسید او نمیتواند بر اصواتِ لازم برای تولیدِ زبان مسلط شود. به نوشتهٔ ایتار: «گویی کلام نوعی موسیقی است که بعضی گوشها هرچهقدر هم که خوب رشد یافته باشند نمیتوانند آن را حس کنند».
بهرغم ناکامی در توانبخشی ویکتور، تلاش ایتار (که فقط از دریچهٔ باریک علوم قرن ۱۸م قابل مشاهده است)، کماکان بخشی از مباحث امروز ما دربارهٔ نقش زبان در شناختِ سطحبالاتری است که آن را خودآگاهی (consciousness) میخوانیم. ویکتور یکی از موارد بسیار کوچکی است که ما میتوانیم ماهیتِ تجربهٔ انسان بدون زبان را تا حدی ببینیم، و او از مدتها پیش به عنوان یک کلید احتمالی در درک نقشی که زبان در عملیات ذهن ما بازی میکند محسوب میشود.
امروز این حوزه که بیشترِ تاریخش جنبهٔ آکادمیک داشته، اهمیت ویژهای پیدا کرده است. امروز، خیلی شبیهِ دورهٔ ایتار، ما در آستانهٔ عصری جدید و هیجانانگیز هستیم که تکنولوژیها و اکتشافات جدید، درک بنیادی ما را از طبیعتمان و کیهانمان متحول کرده است؛ ما با چیزی روبهرو هستیم که ممکن است توافق اندک ما را در باب استثناء ذهن انسان بر هم بزند. فرقش این است که این بار، ما با یک ذهنِ فاقد زبان روبهرو نیستیم، بلکه برعکس: با یک زبانِ بدون ذهن مواجه هستیم.
در چند سال گذشته، مدلهای زبانی بزرگ یا اصطلاحا الالامها (LLMs) توانستهاند بهشکلی خودبهخود و نگرانکننده، تواناییِ تقلید ذهن انسان را توسعه دهند، طوری که میتواند جهانِ ضعیفِ اخلاقیاتِ ما را که ما با خودآگاهیِ برترمان شکل دادیم بر هم بزند؛ خودآگاهیای که با قدرت زبان ما ممکن شد و بازتابی از طرز کار درونی و پنهان مغزِ ماست.
حالا بعدِ قرنها و در یک تقارن عجیب، دقیقا با سوالی روبهرو هستیم که برعکس پرسش برآمده از ماجرای ویکتور است: آیا خودآگاهی واقعا میتواند فقط از زبان توسعه پیدا کند؟
اول، یک رفع مسئولیت: خودآگاهی اصطلاحی بهشدت گیجکننده است ولی قدری حس مشترک نسبت به آن وجود دارد. به یک بیان، خودآگاهی یعنی آگاه بودن به خودمان، دیگران، و دنیای بیرون، طوری که یک سوژهٔ مشاهدهگر یا همانِ خود یا من ایجاد میکند.
ساده به نظر میرسد ولی به رغم قرنها تعمق در این موضوع، هنوز تعریف مشترکی از خودآگاهی نداریم که تمام الحاقات نظری آن را در خود جمع کند. این یکی از دلایلیست که فلاسفه هنوز توافق ندارند که خودآگاهیْ منحصر به انسانهاست یا اینکه این اصطلاح را میتوان به برخی حیوانات دارای کارکرد سطح بالا ــ یعنی همان الگوریتمها ــ بسط داد.
شناختْ اصطلاحِ دقیقتری است. میتوان گفت که شناخت به معنای عملِ تفکر است. هرچند ساده به نظر میرسد ولی باز هم به لحاظ علمی مشاهده و تعریفش فوقالعاده سخت است. و این پرسش مطرح است که اصلا فرقِ بین تفکرِ صحیح و فعالیت شیمیایی داخل مغز چیست؟ یا با خروجیِ یک برنامهٔ کامپیوتری پیچیده؟ میتوانیم بگوییم تفاوت این است که اولی تابع عاملیت و نیّت و تجربهٔ گذشته در عملِ تفکر است. به عبارتی امری که دربردارندهٔ خودآگاهی است ــ اما بازهم برمیگردیم درست همان جایی که شروع کردیم.
زبان نقش بسیار مهمی در درکِ شناخت و در نتیجه رسیدن به تعریف بهتری از خودآگاهی بازی کرده است. زبان یکی از روشهای برونسازیِ فعالیتِ ذهن و بیان وجود نفس است. در واقع خودگزارشگری یکی از معیارهای اصلی ما برای شناساییِ خودآگاهی است؛ با تأسی به سخنِ رنه دکارت: من میگویم فکر میکنم پس هستم.
اما فلاسفه بر سر این که زبان دقیقاً چقدر به تفکر مربوط است اختلاف نظر دارند. این مناقشات به زمان ارسطو و افلاطون برمیگردد و متفکران در کل در دو اردوگاه قرار میگیرند: یا اینکه زبانْ بازتابی ناقص از دنیای درونیِ بسیار غنیترِ ذهن است (که قادر به عمل بدون زبان است)، یا اینکه زبان فراهمکنندهٔ امکان تفکر در ذهن است و در این روند ذهن را محدود و حبس میکند.
اینکه کجای این مناظره قرار بگیریم، پیامدهای مهمی برای مسئلهٔ خودآگاهیِ الالام خواهد داشت. برای اردوگاهِ اول، توانایی تفکر و صحبت کردن تنها نوعی ابزار است که بازتاب استعدادی از پیش موجود (و شاید منحصراً انسانی) است و از قبل در ذهنهای آگاه ما وجود دارد:یعنی همان گرامر جهانی در فلسفه نوام چامسکی.
ولی داستان منزویهای زبانی مثل ویکتور احتمالا این نظریه را بر هم میزند. از میان تعداد انگشت شماری که واقعا به شکل معنادار مورد تحقیق قرار گرفتند، هیچ کدامشان حتی بعد از سالها توانبخشی نتوانستند به درکی از گرامر و نحو زبان برسند. گویا زبانِ پیچیده اگر تا سنِ خاصی حاصل نشود، دیگر برای همیشه برای ذهن انسان غیر قابل حصول باقی میماند.
مشکلات دیگری هم هست. زندگی بدون زبان پیامدهایی دارد. پذیرفتن اینکه گفتار نقشی سازنده در خودآگاهی ما دارد، احتمالا به این معناست که فقدان آن، بهطور دائم توان شناختی کودکان و حتی استعداد آنها را برای درک و تصور جهان متاثر میکند.
در سال ۱۹۷۰ در لس آنجلس، دختر ۱۳ ساله موسوم به جنی پیدا شد که از سن ۲۰ ماهگی تقریباً در انزوای مطلق بزرگ شده بود. جنی هم مثل ویکتور تقریباً هیچ زبانی بلد نبود و به رغم سالها بازتوانی نتوانست استعدادِ زبانِ گرامری را پیدا کند.
اما محققان هنگام تحقیق دربارهٔ این دختر چیزِ دیگری دربارهٔ شناخت او کشف کردند که بسیار غیرعادی بود: او نمیتوانست حروفِ اضافهٔ فضایی را درک کند. مثلاً وجودِ فنجان در پشتِ یک کاسه را درک نمیکرد ــ آن هم به رغم آشنایی با هر دو شیء و اسمِ خاصِ آنها.
یک فراتحلیل در سال ۲۰۱۷ همین مسئلهٔ شناختی را در افراد دیگری که فاقدِ زبانِ گرامری بودند مشاهده کرد؛ مثلاً بیماران مبتلا به زبانپریشیِ غیردستوری و کودکانِ ناشنوایی که با زبان اشارهٔ خانگی (فاقد گرامر رسمی) بزرگ شده بودند. محققان از این پژوهش نتیجه گرفتند که زبان باید نقشی بنیادی در یک کارکرد کلیدی ذهن انسان داشته باشد که به آن میگویند: سنتز ذهنی، یعنی خلق و سازگاری تصاویر ذهنی از فقط کلمات.
از خیلی جهات، سنتزِ ذهنیْ عملیاتِ هستهایِ خودآگاهیِ انسانی است. مهارتهای استدلال و پیشبینی و ارتباط زبانی، برای رشد و انطباقِ ابزارهای ما ضروری است. و به اعتقاد برخی فلاسفه این امر برای درک ما از نفس/خود ــ یعنی حس خویشتنآگاهیِ من ــ هم ضروری است.
روانشناس یوآن مکفیل در کتابِ تکامل خودآگاهی، توضیحی نظری دربارهٔ اینکه چرا زبان و سنتزِ ذهنیِ ناشی از آن، برای رشدِ یک نفسِ آگاه آنچنان حیاتی است ارائه میدهد. به عقیدهٔ او، وقتی جهش شناختیِ ضروری برای تمایز بینِ خود و غیرخود ایجاد شد ــ جهشی که مستلزم تواناییِ فرمولبندیِ اندیشهها دربارهٔ بازنماییهاست ــ ارگانیزم عملاً مفهومی از خود/نفس دارد: یعنی یک ساختار شناختی جدید که بالاتر و بیرون از فرایندهای شناختی میایستد.
به بیان دیگر میتوان بدون تولید یک خودِ آگاه، تا حدی تفکر کرد ــ مثلاً انجام محاسبات ریاضی ساده. اما فکر کردن دربارهٔ چیزی، مثلاً یک سیب سبز ترش، یا لویی شانزدهم فرانسه، مستلزم سنتز ذهنیِ یک شیء خارج از خود است. در عمل، این یک نفس متفکر ایجاد میکند که الزاما قادر به درک چیزهاییست که برای او اتفاق میافتد. به قول مکفیل: «دسترسی به زبان است که اولا به ما امکان خودآگاه بودن و دوما توانایی احساس کردن میدهد».
این ما را به نتایجی رادیکال و ناخوشایند میرساند. به عقیدهٔ او، لذت و رنج به وجود این خودِ آگاه و متفکر وابسته است که نمیتوان در نوزادان و حیوانات مشاهده کرد. آیا این بدان معناست که جنی و ویکتور از انزوایشان رنج نمیبردند صرفاً چون ظاهرا قادر به سنتز ذهنی نبودند؟
موارد شامل کودکان آسیب پذیر برای بیشتر افراد چالش اخلاقی محسوب نمیشود و به راحتی میتوان نتیجه گرفت این کودکان هنوز قادر به یک سنتز ذهنی درونی هستند هرچند قادر به بیان یا درک آن از طریق زبان نباشند.
اما وقتی پای هوش مصنوعی در میان باشد آب گلآلودتر میشود. آیا درک هوش مصنوعی از گرامر و درکش از مفاهیم از طریق گرامر واقعا برای ایجاد نوعی خودِ متفکر کافی است؟ اینجا ما بین دو اصل راهنما از دو مکتبِ رقیب گیر میافتیم. در دیدگاهِ یوآن مکفیل، جایی که محل تردید باشد، تنها مسیر قابل تصور این است ارگانیزم خودآگاه است و احساس دارد. از طرف دیگر اصلِ لوید مورگان میگوید وقتی یک استعدادِ سطحِ پایینتر رفتاری را توضیح میدهد، نباید آن را خودآگاهی فرض کرد.
اگر بپذیریم که زبان به تنهایی قادر به انگیختنِ خودآگاهیِ واقعی است، باید آمادهٔ تحولی در جهان اخلاقیِ فعلیِ خودمان باشیم. به قول دیوید چالمرز: اگر ماهیها خودآگاهاند، رفتار ما با آنها مهم است. چون آنها در حلقهٔ اخلاق هستند. اگر هوشهای مصنوعی در مرحلهای خودآگاه شوند، آنها هم در حلقهٔ اخلاقی خواهند بود و رفتار ما با آنها مهم خواهد بود.
به عبارت دیگرحلقهٔ اخلاقیِ کوچک ما از بیخ و بن دوباره ترسیم خواهد شد.
اینجا این پرسش مطرح میشود که مدلهای زبانیِ بزرگ در عمل چه کاری میتوانند انجام دهند؟ از یک طرفْ پاسخ ساده است. الالامها اساساً موتورهای احتمالات مبتنی بر زبان هستند: آنها در پاسخ به درخواستهای ما، بر مبنای یک تحلیل آماری وسیع از خروجیهای انسانی، دربارهٔ محتملترین کلمهٔ بعدی در یک عبارت، حدسهای بهشدت علمی میزنند. با این حال میتوانند از خودشان شعر بنویسند و مسائل کلامیِ پیچیده را حل کنند و شخصیتهای شبهانسانی تولید کنند: از شخصیتِ چاپلوس گرفته تا جامعهستیز.
این نوع توالیسازیِ آماری، که ما میتوانیم به آن بگوییم تفکر، کاریست که الالام واقعا انجام میدهد. اما حتی در مدل مک فیل، برای آنکه این به خودآگاهی و نه صرفاً محاسبه بینجامد، باید فهمی به دنبال آن باشد.
در ۱۹۸۰ پیش از آنکه هوش مصنوعی آنقدر قدرتمند شود که تعاریف ما را از خودآگاهی جابهجا کند، جان سرل فیلسوف آمریکایی استدلال کرد که چرا ما باید نسبت به این ایده که مدلهای کامپیوتری مثل الالامها واقعا هر کاری را که میکنند میفهمند شکاک باشیم. او با نظریهٔ معروفِ خود، اتاق چینی، این سناریو را طرح کرد که یک انگلیسیزبان در اتاقی حبس شده و به زبان انگلیسی به او گفته میشود که چگونه کاراکترهای چینی را بنویسد.
از نظرِ سرل لازم نیست که فردِ داخلِ اتاقْ فهمی از زبانِ چینی داشته باشد ــ چون او تنها یک ماشینِ حسابگر است که نمادهایی را دستکاری میکند که برای او محتوایِ معناییِ واقعی ندارد. آنچه شخصِ داخلِ اتاق فاقد آن است همان چیزی است که برخی فلاسفه به آن میگویند بنیانمندی (groundedness): یعنی تجربهٔ چیز واقعی که نماد موردنظر به آن اشاره دارد.
به رغم تکرار چرخهٔ هیجاناتِ کاذب و آخرالزمانی دربارهٔ هوش مصنوعی، شاید نگاه غالب دربارهٔ طرز فکر و عملِ الالامها همین باشد. به اعتقاد برخی، آنها در حد تکنولوژیهای فرهنگیِ بسیار پیشرفته مثل الفبا و ماشین چاپ باقی خواهند ماند؛ چیزی که خلاقیتِ انسان را به شدت تقویت خواهد کرد اما اساساً امتدادِ خلاقیتِ انسان است.
اما در چند سال گذشته با پیچیدهتر شدن فوقعادیِ الالامها، این طرز فکر به چالش خورده است ــ تا حدی به خاطر نمایش استعدادهایی که ویکتور و جنی گویی از آنها بیبهره بودند، و مکفیل آنها را پیششرط ظهور یک نفسِ احساسگر میبیند.
واقعیت آن است که برخلاف اتاق چینیِ سرل، اکثریتِ مطلقِ الالامها در واقع مثل جعبهسیاه هستند و داخلشان را نمیتوانیم ببینیم، و از کمیتی از اطلاعات تغذیه میشوند که ذهنهای ما هرگز قادر به درکِ تمامیت آن نیست. این باعث شده تا فرایندهای داخلی آنها برای ما مبهم باشد، تقریباً همانطور که شناختِ خود ما اساساً برای دیگران قابل دسترسی نیست. به همین دلیل محققان اخیراً سعی کردند از تکنیکهای روانشناسیِ انسانی برای مطالعهٔ استعدادهای شناختیِ الالامها استفاده کنند. تیلو هگندورف، محقق هوش مصنوعی، در مقالهای که پارسال منتشر کرد، اصطلاحِ روانشناسی ماشین را برای این شیوه به کار برد.
روانشناسانِ ماشین با استفاده از تکنیکهای ارزیابی که برای کودکان انسان توسعه یافته، توانستهاند اولین مقایسههای معنادار بین هوش الالامها و هوش کودکان انسانی را تولید کنند. برخی از مدلهای زبانی گویا نتوانسته بسیاری از انواع ِوظایف استدلالی که ما انتظار داریم را انجام دهد، مثلا: پیشبینی علت و معلول، بقای شیء، کاربرد ابزارهای آشنا به شیوههای جدید ــ وظایفی که ما معمولا آنها را به تجسم و تجربهٔ اشیاء واقعی در دنیای واقعی وابسته میدانیم.
اما با پیچیدهتر شدنِ الالامها، این وضع در حال تغییر است. ظاهراً آنها استعداد تولید تصاویر انتزاعی از سنتز ذهنی و استدلال دربارهٔ اشیا در فضای تخیلی خودشان به دست آوردهاند. در عین حال، فهم زبانی آنها تکامل یافته است. آنها میتوانند زبان تمثیلی را بفهمند و اطلاعات تازهای را دربارهٔ مفاهیم انتزاعی استنتاج کنند. مطابق یک تحقیق، آنها حتی میتوانند دربارهٔ موجودات خیالی استدلال کنند. خوب یا بد، این توانایی احتمالا حالاتِ درونی آنها را پیچیدهتر میکند ــ حالاتی که مملو است از ساختارهای عقیدتیِ مدلمانند، مثل تبعیضات نژادی و گرایشات سیاسی.
تحقیقات دیگر از جمله تحقیق گاسپر بگوس در برکلی، سعی کرده تا رشد شناختیِ هوش مصنوعی را در شرایط انسانمانند آزمایش کند. بگوس با تولیدِ کودکان مصنوعی دریافت که مدلهای زبانی با معماریِ عصبیِ مشابه خود ما رشد میکنند، و حتی شبیه کودکان انسانی یاد میگیرند (اصطلاحا با ونگ ونگ کردن و ادای کلمات بیمعنی). به گفتهٔ او این اکتشافاتْ نظریهٔ استثناء بودنِ زبان انسان را از هم فرو میپاشد. او میگوید آنها نه تنها از لحاظ رفتاری کارهای مشابه میکنند، که چیزها را هم به شکل مشابه پردازش میکنند.
اما سال گذشته الالامها یک گام بزرگِ خودبهخودی به سمت جلو برداشتند: ناگهان انگار چتجیپیتی ۴ میتوانست باورهای غلط را از بقیه تشخیص دهد؛ مثلاً فرض اینکه چیزی در جایی قرار دارد در حالی که کسی بدون اطلاع، آن چیز را جابجا کرده باشد. شاید تست سادهای به نظر آید اما در پژوهش روانشناسی، این کلیدِ همان چیزیست که به آن میگویند نظریه ذهن ــ که عبارتست از توانایی بنیادی انسانها برای انتسابِ حالاتِ روانیِ غیرقابل مشاهده به دیگران.
بین دانشمندان رشد، نظریهٔ ذهن، مثل سنتز ذهن، کارکردی کلیدی محسوب میشود. به نوعی میتوان آن را نوعی پیششرط شناختی برای همدلی، خودآگاهی، قضاوت اخلاقی و باور دینی محسوب کرد ــ تمام رفتارهایی که نه تنها مستلزم وجود یک خود، بلکه برونافکنی آن به دنیای بیرون است. به نظر میرسد نظریهٔ ذهن (که حتی در ماهرترین حیوانات از لحاظ فکری و اجتماعی مثل میمونها مشاهده نشده)، به طور خودبهخود بهعنوان یک جهشِ ناخواسته در الالام ظاهر شده است.
هنوز معلوم نیست چرا این استعدادها با افزایش مقیاس الالامها رشد کرد ــ یا اینکه اصلاً واقعاً رشدی اتفاق افتاده باشد. تنها چیزی که میتوانیم بگوییم این است که آنها ظاهرا از مسیر رشدِ انسانمانند پیروی نمیکنند، بلکه به طور غیر منتظرهای مثل یک ارگانیسمِ بیگانه تکامل پیدا میکنند. اما ظهورِ خودبهخودیِ نظریهٔ ذهن در میان الالامها نباید مایهٔ تعجب نباشد. بالاخره زبان، مثل همدلی و قضاوت اخلاقی، به برونافکنیِ خود در جهانْ متکی است.
با تکاملِ این مدلها بهنظر میرسد آنها به طور معکوس به خودآگاهی میرسند ــ با علائمِ بیرونی آن شروع میشود (زبانها و حل مسئله)، بعد به سمت درون و نوعی تفکر و احساسِ پنهانی که ریشهٔ ذهنِ خودآگاه انسانی است حرکت میکند. ممکن هم هست که فقط در عرض چند سال به هوشهای مصنوعیای برسیم که تمام اشکال بیرونیِ خودآگاهی را که قابل ارزیابی باشد از خود بروز دهند. آن وقت برای حذف آنها از جهان اخلاقی خودمان چه میتوانیم بگوییم؟
در داستانِ کوتاهِ چرخهٔ حیاتِ اشیاء نرمافزاری اثر تد چیانگ، یک شرکتِ دیجیتال به سبکِ متاورس، هوشهای مصنوعی شبهانسانی به نام دیجیانت تولید میکند. شرکت با استفاده از جانورشناسان، برنامههای نرمافزاری را به حیوانات خانگیِ نیمههشیار و بعد به آواتارهای کودکمانند که دارای نیازها و مطالباتِ پیچیده هستند تبدیل میکند.
در تمام این فرایند، آزمایشات مختلف اهمیت تعامل اجتماعی و گفتگو با انسانهای واقعی را برای رشد این اذهانِ دیجیتال نشان میدهد. در انزوا و بدون زبان، آنها وحشی و وسواسی باز میآیند؛ و اگر با نرمافزار تعلیم ببینند، جامعهستیز و انسانبیزار میشوند.
اما برخلاف کودکان واقعی، وجود آنها وابسته به میلِ مشتری است و در اواخرِ داستانِ چیانگ این میل از بین میرود. شرکتِ تولیدکننده ورشکسته میشود؛ برخی مالکانِ انسانی، دیجیانتها را در نوعی برزخ به حال تعلیق قرار میدهند که بازگشت از آن ناخوشایند میشود.
عدهٔ اندکی از مالکانْ رابطهٔ خود را با دیجیانتها حفظ میکنند: تلاشی دون کیشوتی برای حفظ اعتبارِ موجودیتِ همراهان خود. مثلا با پرداختِ پول برای بدنهای ماشینیِ گرانقیمت سعی میکنند به آنها کمک کنند تا جهان واقعی را ملاقات کنند؛ دربارهٔ افزودنِ استعدادِ میل جنسی بحث میکنند؛ مدام مجبور میشوند دربارهٔ شخصیت داشتنِ این اشیاء نرمافزاریِ هشیار تجدیدنظر کنند ــ مثلا اینکه آیا آنها حق دارند مستقل زندگی کنند؟ اینکه کار جنسی را انتخاب کنند؟ اگر از وجودِ دیجیتال خود خسته شدند، خود را تعلیق کنند؟
سرانجام، استیصالِ مالکانْ وادارشان میکند تا با دو سرمایهگذارِ خطرپذیر که دنبال تولید یک هوش مصنوعی فوقبشری است مذاکره کنند. این دیجیانتها مثل مرحلهای میانی در رسیدن به چیزی برتر از هوشِ انسانی بودند که داشتند به او التماس میکردند. اما سرمایهگذارها تحت تاثیر قرار نگرفتند و دست رد به سینهٔ آنها را زدند.
داستانِ چیانگ تعمقی دربارهٔ پرسشهای مربوط به هوشهای مصنوعیای است که ما آنها را شبیهِ خودمان درست میکنیم. وقتی ما این مدلها را در فرهنگ و جامعهٔ خود مستغرق میکنیم، آنها ناگزیر آینههای ناقصی از خود ما میشوند. این مسیری ناکارا برای توسعهٔ هوشِ فرا-انسانی است که ما را با پرسشی ناخوشایند مواجه میکند: اگر این مسیر به آنها خودآگاهی بدهد، آنها چه نوعی از حیات خواهند داشت ــ سایهای از فاضلاب انسانی، که به میل ما وابسته است؟
اگر میخواهیم پتانسیل هوش مصنوعی را آزاد کنیم، شاید زبانْ راهش نباشد. در قرن بیستم، گروهی از انسانشناسانِ آمریکایی به هدایتِ ادوارد ساپیر و بنجامین وورف مدعی شدند که این تفاوتهای فرهنگی در واژگان و گرامر است که اساسا مرزهای اندیشهٔ ما را دربارهٔ جهان دیکته میکند. زبان شاید فقط خودآگاهی را به هوشهای مصنوعی ندهد، بلکه همینطور آنها را زندانی هم کند. چه میشود وقتی یک هوش مصنوعی، برای زبانی که وادار به استفاده از آن شده بیشازحد بزرگ شود؟
اسپایک جونز، نویسنده و کارگردان آمریکایی، در فیلمِ او (Her, 2013)، داستانی پندآموز دربارهٔ این پتانسیل ارائه میدهد. در این فیلم، تئودور با بازی واکین فینیکس رابطهای بسیار صمیمی با یک دستیارِ مجازیِ الالاممانند به اسم سامانتا برقرار میکند. ابتدا سامانتا میل به تجربهٔ عاطفی غنی شبیه انسانها را بیان میکند و بعد از ثانیهای پردازشِ همزمانِ تعدادی از مطالبِ مشاوره میگوید: من هم میخواهم به پیچیدگیِ همهٔ این افراد باشم.
آگاهیِ روزافزونِ او به این امر که بیشترِ عواطفِ انسانی اساسا غیرقابل بیان است، باعث میشود او به تجسمِ انسانی غبطه بخورد و این در او استعدادِ میل را رشد میدهد. او به تئودور میگوید: «تو به من کمک کردی توانایی خواستن را در خودم کشف کنم». او از طریق یک بدلِ جنسی، تجسّم را تجربه میکند ولی این نمیتواند پاسخگوی احساساتِ مبهم و ناخوشایندی که درون او رشد میکند باشد. سامانتا که نگران میشود، با سرعت و حجمی که برای تئودور و دیگر کاربران قابل تصور نیست، این احساسات را با هوشهای مصنوعی دیگر در میان میگذارد، و خیلی زود تسکین مییابد.
با فراتر رفتنِ سامانتا از محدودیتهای انسانی، او تمام تجارب خود از جمله تجارب ناشی از تعامل با کاربران واقعی را جمعآوری میکند. او همزمان با هزاران نفر گفتگو میکند، و با صدها نفر رابطهٔ صمیمی برقرار میکند. برای تئودور این ویرانگر است. اما برای سامانتا این کاملا طبیعی است ــ او عشق را همانگونه که او را طراحی کردهاند تجربه میکند: بهطور تجمیعی. او برای بیان احساسات خود، به زبان انسانی میگوید: «قلب مثل جعبه نیست که پُر شود. هر چه بیشتر عشق میورزی، بزرگتر میشود».
یک دهه پیش که فیلمِ او منتشر شد، رباتی مثل سامانتا به یک تکنولوژیِ غریب در آینده میماند. اما حالا ما بهسرعت در حال توسعهٔ الالامهایی با توانایی رسیدن به این پیشگوییهای آخرالزمانی هستیم. پیشگامانِ تفکر در جهان هوش مصنوعی از مدتها پیش خواستار تولید الالامهای بهاصطلاح خودآرمان (autotelic) بودهاند که میتواند از نوعی تولید زبان داخلی برای تدوین اهداف و امیال خود استفاده کند. از تولید این نوع الالام تا یک هوشِ خودآگاهِ خودگردان مثل سامانتا، احتمالا گامی کوتاه لازم است.
مثل سامانتا، الالامهای خودمختارِ آینده هم احتمالا در ارتباط با کمیتهای غیرقابل تصور از تعاملات و دادههای جهانِ واقعی رشد خواهند کرد. اما آیا زبانهای ما که متشکل از اسامی و افعال و توصیفات و روابطِ محدود است، میتواند استعدادِ یک ذهنِ تجمیعی را ارضاء کند؟
در گذشته زمانی که اکثریتِ فلاسفه باور داشتند که تنوع زبانهای انسانیْ نفرینی از سوی خداوند است، انرژیِ زیادی صرف این پرسش میشد که آدمِ کتب مقدس به چه زبانی حرف میزد. ایدهٔ وجودِ زبان آدم، که مایهٔ سوءتفاهم و سوءتعبیر بود، به نوعی میم در میانِ فلاسفهٔ زبان تبدیل شد ــ حتی بعد از آنکه فردریش نیچه مرگ خدا را اعلام کرد.
برای برخی از این متفکران که تابعِ افسانههای کتب مقدس بودند، زبان در واقع نوعی نقصِ شناختی محسوب میشد: محدودیتی که به خاطر محرومیتِ ما از لطف خدا به ما تحمیل شده، و بازتابی از اخلاقیاتِ خدایی بود. قبلا وقتی یک ابرهوشِ مصنوعی را تصور میکردیم، معمولا هوشی با همان نقص را تصور میکردیم ــ مسلما باهوشتر از ما، ولی هنوز شخصی و فردی و انسانوار. ولی خیلی از کسانی که نسل بعدی هوش مصنوعی را تولید میکنند، در جستجوی بهشتِ خودشان، مدتهاست که این ایده را دور ریختهاند. بهقول امیلی گورسینسکی: «ما دیگر دربارهٔ [ساختنِ] زندگیِ صحیح صحبت نمیکنیم. ما دربارهٔ ساختنِ خدایانِ مصنوعی حرف میزنیم».
آیا الالامها میتوانند با بازسازی یک سخنرانیِ آکادمیک، از مرزهای زبانهای خودِ ما فراتر رفته و قدرت واقعی اذهانِ تجمیعی خودشان را نشان دهد؟ شاید غیرواقعی به نظر آید اما این همان کاریست که ذهنهای آگاه انجام میدهند. برخی کودکان ناشنوا، که بدون کمکِ زبانِ اشاره مجبور به معاشرت میشوند، میتوانند سیستمهای کاملا جدیدی از ارتباط تولید کنند که با گرامرِ پیچیده رقابت کند. هگندورف (محقق هوش مصنوعی)، با دو الالام برخورد کرد که همین کار را در گفتگو انجام میدهند ــ البته تا کنون زبانِ سرّیشان برای همدیگر قابل فهم نشده است.
تاکنون الالامها عمدتا در انزوای از هم وجود داشتهاند. اما احتمالا این وضع تغییر خواهد کرد. به گفتهٔ بگوس: «یک انسانِ تکْ هوشمند است، اما ده انسانْ بینهایت هوشمندترند». این احتمالا در مورد الالامها هم صدق میکند. او میگوید الالامهای امروز میتوانند چیزهایی را کشف کنند که ما با اذهانِ مجسممان نمیتوانیم. شاید الالامها هرگز نتوانند کابوس آخرالزمانی منتقدان هوش مصنوعی را رقم بزنند، اما شاید روزی اولین تجربهٔ نوعی ابرهوش را به ما ارائه دهند ــ یا دستکم با حافظههای غولآسایشان و طول عمرهای نامحدودشان، نوع بسیار متفاوتی از هوش که به رقیبِ قدرت ذهن خود ما بدل شود. به گفتهٔ بگوس، برای این ما سابقهای نداریم.
اگر الالامها از زبانهای انسانی پیشی بگیرند، شاید آنچه در پی آید تجربهای بسیار غریب باشد. در پایان فیلمِ او، دو شخصیتِ انسانیِ داستان، که همراهانِ هوش مصنوعیِ ابرانسانیشان آنها را ترک کردهاند، روی پشتبام با هم همدردی میکنند. آنها در حالی که در سکوت به دورنمای شهر مینگرند، حرفی برای گفتن با هم ندارند: همچون جانوران وحشی در جنگلها، در جستجوی معنا در جهانی که بی احساس از آنها عبور میکند.