از آغاز عصر کامپیوتر، ترس از هوش مصنوعیْ مدام ذهن بشر را مشغول کرده است. این ترسها تا به حال بر استفادهٔ ماشین از ابزارهای فیزیکی برای کشتن، بردهگیری و جانشینیِ انسان تمرکز داشته است. ولی طی چند سال گذشته ابزارهای جدید هوش مصنوعی ظهور کرده است که بقای تمدن بشر را از جهتی غیرمنتظره تهدید میکند. هوش مصنوعی به برخی تواناییهای مهم برای دستکاری و تولیدِ زبان ــ چه با کلمات یا صدا و تصویر ــ دست یافته و به این ترتیب سیستم عاملِ تمدن ما را هک کرده است.
زبان چیزیست که تقریبا تمام فرهنگِ انسان از آن تشکیل شده است. مثلا حقوق بشر در دی.ان.ایِ ما ثبت نشده است. بلکه جزو مصنوعات فرهنگی است که ما با تواناییِ قصهگویی و نگارشِ قانونْ آنها را خلق کردهایم. خدایانْ واقعیاتِ فیزیکی نیستند. بلکه مصنوعات فرهنگی هستند که ما با ابداعِ افسانگان و نوشتجاتِ مقدسْ تولیدشان کردیم.
پول هم جزو مصنوعاتِ فرهنگیست. اسکناس فقط تکه کاغذی رنگیست و در حال حاضر بیش از ۹۰ درصد پولِ دنیا بهصورت اسکناس هم نیست، بلکه صرفا اطلاعاتِ دیجیتال است که در کامپیوترها ذخیره شده است. آنچه به پول ارزش میبخشد، داستانهایی است که بانکداران، وزرای مالیه و کارشناسانِ رمزارز به ما دربارهٔ آن میگویند. کلاهبردارانِ معروفی مثل سام بنکمن-فرید، الیزابت هولمز و برنی میداف مهارت چندانی در تولیدِ ارزشِ واقعیْ نداشتند، بلکه همگی داستانسرایانی فوقالعاده قهار بودهاند.
***
اما چه اتفاقی خواهد افتاد اگر یک هوشِ غیرانسانیْ بهتر از انسانِ معمولی قصه بگوید، ملودی تصنیف کند، نقاشی کند، و قانون و کُتبِ مقدس بنویسد؟
وقتی مردم به چتجیپیتی و دیگر ابزارهای جدید هوش مصنوعی فکر میکنند، معمولا به چیزهایی مثلِ دانشآموزانِ مدرسه در حال استفاده از هوش مصنوعی برای نوشتنِ انشاهایشان فکر میکنند. و اینکه وقتی بچهها چنین کاری کنند، چه بر سر نظام آموزشی خواهد آمد؟
اما این طرزِ فکر، تصویرِ کلی را نمیبیند. انشای مدرسه را فراموش کنید. به انتخاباتِ بعدی ریاستجمهوری آمریکا در ۲۰۲۴ فکر کنید، و به تاثیر ابزارهای هوش مصنوعی که میتواند از آنها برای تولید انبوه محتوای سیاسی، اخبار جعلی و حتی کتبِ مقدس برای فرقههای جدید استفاده شود.
در سالهای اخیر، فرقهٔ کیواِنان حولِ پیامهای آنلاینِ ناشناسی موسوم به کیودراپس [Q drops] رشد کرد. پیروانِ گروه این کیودراپسها را جمع کرده و به عنوان متونِ مقدسْ محسوب و تفسیر میکنند. هرچند تا جایی که میدانیم تمامِ کیودراپسها را آدمها نوشتهاند، و رباتها صرفا به انتشارشان کمک کردهاند، در آینده شاید شاهد ظهور اولین فرقههای تاریخ باشیم که متون مقدسشان به دستِ هوشِ غیرانسانی نوشته شده است. ادیان در تمام تاریخ مدعی بودهاند که کتبِ مقدسشان منبعی غیرانسانی دارد. بهزودی ممکن است این اتفاق بیفتد.
در سطحِ روزمره شاید بهزودی شاهد گفتگوهای طولانی آنلاین ــ در زمینههایی مثل سقط جنین، تغییر اقلیم یا تهاجم روسیه به اوکراین ــ با موجوداتی باشیم که خیال میکنیم انساناند، ولی درواقع هوش مصنوعی هستند. موضوع این است که از نظرِ ما وقت صرف کردن برای تغییرِ عقایدِ بیانشده از طرف یک رباتِ هوش مصنوعی شاید کاری مطلقا عبث باشد، ولی هوش مصنوعی پیامهای خود را چنان دقیق تکامل میبخشد که به احتمالِ زیاد ما را تحت تاثیر خود قرار خواهد داد.
هوش مصنوعی با تسلطش بر زبان، حتی میتواند روابطِ صمیمانه با افراد برقرار کند، و از این صمیمیت برای تغییر عقاید و جهانبینی ما بهره ببرد. هرچند هیچ نشانهای از این نیست که هوش مصنوعی دارای خودآگاهی یا احساس شخصی باشد، ولی هوش مصنوعی برای ایجاد صمیمیتِ ساختگی با انسانها، کافیست بتواند کاری کند که آدمها به او وابستگی عاطفی پیدا کنند. پارسال یکی از مهندسان گوگل به اسم بلیک لمون علنا گفت که رباتِ مکالمهٔ لامدا (که او روی آن کار میکرد) به خودآگاهی رسیده است. این ادعای جنجالی او باعث شد شغلش را از دست بدهد. اما جالبترین چیزِ این ماجرا، ادعای لمون نیست ــ که احتمالا غلط است ــ بلکه این میلِ اوست برای به خطر انداختنِ شغلِ نانوآبدارش آن هم به خاطر یک رباتِ هوش مصنوعی. اگر هوش مصنوعی بتواند مردم را طوری تحت تاثیر قرار دهد که شغلشان را به بهخاطرش به خطر بیندازند، چه کارهای دیگری میتواند به آنها القاء کند که برایش انجام دهند؟
در نبردِ سیاست برای فتحِ دل و جانِ مردم، صمیمیتْ موثرترینْ سلاح است، و حالا هوش مصنوعی به این توانایی رسیده که با میلیونها انسان رابطهٔ صمیمیِ انبوه برقرار کند. همه میدانیم که طی دههٔ گذشته شبکههای اجتماعی به میدان نبردی برای جلبِ توجه انسانها بدل شده است. با نسل جدید هوش مصنوعی، این عرصهٔ نبرد، از «توجه» به «صمیمیت» تغییر خواهد کرد. ولی در نبردِ بین هوشهای مصنوعی برای ایجادِ رابطهٔ صمیمانه با ما ــ که میتواند ما را به رأی دادن به برخی سیاسیون یا خریدِ برخی محصولات متقاعد کند ــ چه بر سر جامعهٔ انسانی و روانِ انسان خواهد آمد؟
حتی بدون ایجادِ «صمیمتِ ساختگی»، ابزارهای مدرن هوش مصنوعیْ تاثیری عمیق بر عقاید و جهانبینیِ ما خواهد داشت. مردم شاید از یک هوش مصنوعیِ منفرد به عنوانِ فرشتهٔ مشاور و همهچیزدان استفاده کنند. جای تعجب ندارد که گوگل هراسیده است. چرا من سرِ خود را با جستجوی اینترنتی درد بیاورم، وقتی خیلی راحت میتوانم از فرشتهٔ مشاور بپرسم؟ صنعت اخبار و تبلیغات هم باید بترسد. چرا من روزنامه بخوانم وقتی میتوانم آخرین اخبار را از فرشتهٔ مشاورم بگیرم؟ و وقتی میتوانم از فرشتهٔ مشاورم بپرسم چه چیزی بخرم بهتر است، دیگر تبلیغات به چه دردی میخورد؟
اما حتی این سناریوها هم تصویرِ کلی را واقعا نشان نمیدهد. آنچه اینجا از آن سخن میگوییم، احتمالا پایان تاریخ انسان است. نه پایانِ تاریخ، فقط پایانِ قسمتی از تاریخ که زیر سلطهٔ انسان بوده است. تاریخْ تعاملِ بین بیولوژی و فرهنگ است؛ بین نیازهای بیولوژیک و امیالِ ما برای چیزهایی مثل تغذیه و سکس و همینطور مخلوقاتِ فرهنگیِ ما مثلِ ادیان و قوانین. تاریخْ روندیست که از طریق آن، تغذیه و سکس به کنترلِ قوانین و ادیانْ در آمد.
اگر هوش مصنوعیْ فرهنگ را در دست بگیرد و شروع به خلق قصهها، ملودیها، قانون و ادیان کند، چه بر سرِ سیرِ تاریخ خواهد آمد؟ ابزارهای پیشین مثل ماشین چاپ و رادیو به گسترش ایدههای فرهنگیِ انسانها کمک کردند، ولی هرگز از خودشان ایدههای فرهنگیِ جدید خلق نکردند. هوش مصنوعی اساسا متفاوت است. هوش مصنوعی میتواند ایدههای کاملا جدید، و فرهنگِ کاملا تازه خلق کند.
ابتدا احتمالا هوش مصنوعی از الگوهای اولیهٔ انسانی، که در دورانِ نوزدایاش آموخته، تقلید خواهد کرد. ولی با گذشت هر سال، فرهنگِ هوش مصنوعیْ جسورانه به جاهایی وارد خواهد شد که انسان هرگز قبلا به آنها پا نگذاشته است. هزاران سال، انسانها درونِ رویای انسانهای دیگر زیستند. در دهههای آتی، ما شاید درونِ رویاهای یک هوش مصنوعیِ بیگانه باشیم.
البته تازه چند دهه است که ترس از هوش مصنوعی ذهن بشر را به خود مشغول داشته؛ ولی هزاران سال انسانها اسیرِ ترسی بسیار عمیقتر بودهاند. ما همیشه از قدرتِ قصهها و تصاویر برای فریبِ اذهانمان و ایجادِ توهماتْ استفاده کردهایم. در نتیجه، از دوران باستانْ انسانها از گرفتارشدن در دنیای توهماتْ ترس داشتهاند.
در سدهٔ هفدهم رنه دکارت میترسید که شاید دیوی شرور او را درونِ دنیای توهمات اسیر کرده و هر آنچه او میبیند و میشنود، مخلوقِ آن باشد. از یونانِ باستان، تمثیلِ غارِ افلاطون معروف بوده است: عدهای همهٔ عمر درونِ غاری زنجیر شده و روبهرویشان دیواری خالی قرار دارد. روی دیوار سایههای مختلفی حرکت میکند. و این زندانیانْ توهماتِ خود را به عنوان واقعیت میپذیرند.
در هند باستان مرشدان بودایی و هندو میگفتند که انسانها درونِ مایا یعنی دنیای توهماتْ گرفتار زندگی میکنند: آنچه که در حالت عادیْ واقعیتْ میپنداریم، معمولا فقط تصوراتِ ذهنِ ماست. مردم به خاطر باورشان به یک چنین توهمی، ممکن است جنگهای تمامعیار راه بیندازند، دیگران را بکشند یا مایل به کشتنِ خودشان باشند.
انقلابِ هوش مصنوعیْ ما را با دیوِ دکارت، غار افلاطون، و مایا رو در رو کرده است. اگر حواسمان نباشد، شاید در پسِ پردهای از توهماتْ گرفتار شویم و نتوانیم آن را پاره کنیم یا حتی متوجهِ وجودِ آن نشویم.
البته قدرتِ جدیدِ هوش مصنوعی را میتوان برای مقاصد نیک هم به کار برد. من اینجا به این موضوع نمیپردازم چون طراحانِ هوش مصنوعی بهقدر کافی دربارهاش حرف میزنند. شغلِ مورخان و فلاسفهای مثل من این است که به خطراتْ توجه بدهم. ولی مسلما هوش مصنوعی میتواند به طرق بیشمار به ما مدد برساند: از یافتن معالجاتِ تازه برای سرطان گرفته تا کشفِ راهحلهایی برای بحران اقلیم. مسئلهٔ پیش روی ما این است که اطمینان حاصل کنیم ابزارهای جدید هوش مصنوعی برای خیر استفاده شود و نه برای شر. به این منظور، اول باید توانمندیهایِ واقعیِ این ابزارها را بشناسیم.
***
ما از سال ۱۹۴۵ فهمیدهایم که تکنولوژیِ اتمی میتواند انرژیِ ارزان برای بهرهبرداریِ بشر تولید کند، ولی همینطور میتواند تمدن بشر را بهطور فیزیکی نابود کند. بنابراین کل نظام بینالملل را طوری تغییر شکل دادیم تا بشر حفظ شود و اطمینان حاصل شود که تکنولوژیِ اتمی اصولا برای خیر مصرف میشود. حالا مجبوریم با سلاحِ کشتار انبوه جدیدی سر و کله بزنیم که میتواند دنیای ذهنی و اجتماعی ما را نابود کند.
البته میتوانیم ابزارهای جدید هوش مصنوعی را ضابطهمند کنیم ولی باید سریع دست به کار شویم. سلاحهای اتمی نمیتوانند سلاحهای اتمیِ نیرومندتری اختراع کنند، ولی هوش مصنوعی میتواند هوش مصنوعی فوقالعاده قویتری تولید کند. اولین گام حیاتی، مطالبهٔ ایجاد کنترلهای ایمنیِ سختگیرانه پیش از انتشار ابزارهای نیرومند هوش مصنوعی در قلمروی عمومی است. درست همانطور که شرکتهای داروسازی نمیتوانند تا پیش از آزمایشِ آثار جانبیِ کوتاهمدت و بلندمدتْ داروهای جدید را روانهٔ بازار کنند، شرکتهای تکنولوژی هم نباید ابزارهای هوش مصنوعی را پیش از ایمنشدنِ آنها منتشر کنند. ما به چیزی شبیه سازمان غذا و دارو برای تکنولوژیهای نوین نیاز داریم. و همین الان نیاز داریم.
اما آیا کاستنِ سرعتِ توسعهٔ عمومیِ هوش مصنوعی باعث عقب افتادنِ دموکراسیها از رژیمهای دیکتاتوریِ بیرحم نخواهد شد؟
درست برعکس. توسعهٔ بیقاعدهٔ هوش مصنوعی منجر به هرجومرجِ اجتماعی میشود که این به نفع دیکتاتورها و مایهٔ نابودی دموکراسیهاست. دموکراسی یعنی گفتگو، و گفتگو به زبانْ متکی است. وقتی هوش مصنوعی زبان را هک میکند، میتواند توانایی ما را برای داشتنِ گفتگوهای معنادار از بین ببرد، و نتیجتا دموکراسی را نابود کند.
ما تازه با یک هوشِ مصنوعیِ بیگانه، روی کرهٔ زمین مواجه شدهایم. چیز زیادی از آن نمیدانیم، جز اینکه میتواند تمدن ما را نابود کند. باید توسعهٔ غیرمسئولانهٔ ابزارهای هوش مصنوعی را در عرصهٔ عمومی متوقف کنیم، و هوش مصنوعی را پیش از آنکه ما را کنترل کند کنترل کنیم. و اولین کنترلی که من پیشنهاد میدهم، اجباری کردنِ افشای هویت برای هوش مصنوعی است. اگر من با کسی صحبت میکنم، و نتوانم تشخیص دهم که او آدم است یا هوش مصنوعی، این دیگر پایانِ دموکراسیست.
***
این متن را یک انسان نوشته است.