تاریخ سلاحهای هستهای پُر است از حوادث قریبالوقوعی که اگر انسان به حس قضاوت خود اعتماد نمیکرد و کورکورانه از ماشینها پیروی میکرد به فاجعه منجر میشد. استفاده از هوش مصنوعی در سلاحهای هستهای این ریسک را در پی دارد که دفعهٔ بعد کسی نتواند مانع شلیک بمب شود.
***
این دیگر یک ماجرای علمیتخیلی نیست: مسابقهٔ استفاده از هوش مصنوعی در سلاحهای اتمی از راه رسیده؛ تحولی که میتواند بروز جنگ اتمی را آسانتر کند. و در حالی که دولتهای جهان سعی میکنند هوش مصنوعی را بهطور ایمن توسعه دهند و استعمال کنند، فرصتی برای کاهش این خطر وجود دارد. اما اگر قرار باشد رهبران جهان از این فرصت استفاده کنند، باید جدیّت خطر را واقعا درک کنند.
در هفتههای اخیر، گروه۷ برای پیشرفت هوش مصنوعیِ ایمن، امن، و قابل اعتماد در دنیا بر سر تاسیس منشور بینالمللی برای سازمانهای توسعهدهندهٔ هوش مصنوعی توافق کرد، و رئیسجمهور آمریکا جو بایدن با صدور یک فرمان اجرایی، استانداردهای جدیدی را برای ایمنی و امنیت هوش مصنوعی وضع کرد. انگلیس هم میزبان اولین نشست ایمنی هوش مصنوعی در جهان بود که هدفش تضمین توسعهٔ ایمن و مسئولانهٔ این تکنولوژی بود.
ولی هیچ کدام از این ابتکارات ریسکهای استفاده از هوش مصنوعی در سلاحهای اتمی را به طور کافی رفع نمیکند. هم منشور گروه۷ و هم فرمان اجرایی بایدن فقط به طور گذرا به نیاز به محافظت از مردم در برابر تهدیدات شیمیایی و بیولوژیک و اتمی از طرف هوش مصنوعی اشاره میکنند. و نخستوزیر انگلیس ریشی سوناک هم اصلا اشارهای به تهدید حاد استفادهٔ هوش مصنوعی در سلاحهای اتمی نکرد، و فقط گفت که در نشستِ ایمنی هوش مصنوعی، تفاهمی دربارهٔ خطرات هوش مصنوعی حاصل شد.
در مورد خطرات حیاتی سلاحهای اتمی که میتواند ویرانی غیرقابل تصوری را بر نژاد بشر و سیارهٔ ما وارد کند شکی نیست. حتی یک جنگ اتمیِ منطقهای صدها هزار تن را مستقیما خواهد کشت و رنج و مرگ غیرمستقیم فراوانی را سبب خواهد شد. و تغییرات اقلیمیِ منتجه به نوبه خود با ایجاد قحطیْ جان میلیاردها انسان را تهدید خواهد کرد.
تاریخ اتمی پُر است از حواث قریبالوقوع که در اغلب آنها، چیزی که مانع بروز آخرالزمان شد یک انسان بود که به جای آنکه کورکورانه از اطلاعات ارائه شده از سوی ماشینها پیروی کند تصمیم گرفت بر حس قضاوت خودش اعتماد کند. مثلا در سال ۱۹۸۳ یک افسر شوروی به اسم استانیسلاو پتروف از یک سیستمِ پیشاخطارِ ماهوارهایِ تحت نظارتش هشداری دریافت کرد: موشکهای اتمی آمریکا در حال پرواز به سمت اتحاد شوروی شناسایی شد. اما پتروف به جای اعلام خطر فوری به مافوقهایش ــ که بلافاصله منجر به اقدام اتمی تلافیجویانه میشد ــ به درستی تشخیص داد که این یک هشدارِ اشتباه است.
حالا اگر هوش مصنوعی در آن پروسه استفاده میشد، آیا پتروف اعلام خطر میکرد یا اصلا فرصتش را داشت؟ در واقع کاربردِ یادگیریِ ماشینی در تسلیحات اتمی، کنترل انسان را بر تصمیم به شلیک آنها کاهش خواهد داد.
البته از زمان اختراع بمب اتم، تعداد زیادی از وظایف کنترل و فرماندهی و ارتباطات بهصورت خودکار در آمده است. اما با پیشرفت یادگیری ماشینی، روند تصمیمگیری ماشینهای پیشرفته مدام مبهمتر میشود ــ موضوعی که به مسئلهٔ جعبه سیاهِ هوش مصنوعی معروف شده است. این امر، نظارت بر کارکرد ماشین را سخت میکند، از جمله تشخیص اینکه ماشینْ خراب شده یا به دستِ دشمن افتاده، یا طوری برنامهریزی شده که نتایج غیرقانونی یا ناخواسته تولید کند.
صرف اطمینان از اینکه انسانْ تصمیم نهایی برای شلیک را میگیرد برای کاهش این ریسکها کافی نیست. همانطور که روانشناس جان هاولی در مقالهای تحقیقی در ۲۰۱۷ نوشت: انسانها در نظارت و مداخلهای که سیستم کنترل از آنها مطالبه میکند بسیار ضعیفاند.
علاوه بر اینها، برنامه علم و امنیت جهانی در دانشگاه پرینستون در سال ۲۰۲۰ نشان داد که مسئولانِ روندهای تصمیمگیری در بحرانهای هستهای، در حال عادی هم بسیار شتابزده عمل میکنند. حتی اگر هوش مصنوعی صرفا در حسگرها و هدفگیری استفاده شود، و نه در تصمیم برای شلیک بمب، بازهٔ زمانیِ تصمیم به حمله را، که در حالت عادی هم بسیار کوتاه است، کوتاهتر از قبل میکند. این فشارِ افزوده بر مسئولانْ ریسکِ خطای محاسبه یا انتخابهای نامعقول را افزایش خواهد داد.
اما یک خطر دیگر، مربوط به استفاده از هوش مصنوعی در ماهوارهها و سیستمهای شناسایی هوش مصنوعی است، چون پنهان کردن تسلیحات اتمی که بهطور تاریخی مخفی بودهاند مثل زیردریاییهای مجهز به موشک بالستیک را دشوارتر میکند. این امر در هنگام بروز جنگ میتواند کشورهای مسلح به بمب اتم را وادار کند تا تمام سلاحهای اتمیشان را زودتر از قبلْ اعزام و مستقر کنند، چون آنها نمیخواهند شانسِ بازداریِ سیستمهای اتمیِ لو رفته را به دشمنانشان بدهند.
تا حالا همهٔ ابتکارات، چه فرمان اجرایی بایدن یا منشور گروه۷، صرفا تعهداتی داوطلبانه بوده که از انسان میخواهد کنترلِ تصمیمگیری برای استفاده از سلاح اتمی را در دست داشته باشد. اما همانطور که آنتونیو گوتیرش دبیرکل سازمان ملل گفته، وجود یک پیمان قانونیِ الزامآور که تسلیحاتِ خودمختارِ مرگبار را ممنوع کند، امری حیاتی است.
و گرچه تاسیس چنین پیمانهایی به عنوان گام اول ضروری است، کارهای خیلی بیشتری لازم است که انجام شود. وقتی پای سلاحهای اتمی در میان باشد، تلاش برای پیشبینی، کاهش، یا نظارت بر خطراتِ جدیدِ ناشی از تکنولوژی هرگز کافی نیست. این سلاحها کلا باید از مدار خارج شوند.
اما این در عمل یعنی همهٔ دولتها با پیوستن به پیمان منع گسترش سلاحهای هستهای، به تقبیح و ممنوعیت و پاکسازی سلاحهای اتمی متعهد شوند. و همینطور یعنی کشورهای مسلح به سلاح اتمی سرمایهگذاری در مدرنسازی و گسترش زرادخانههای اتمی خود را (از جمله به بهانهٔ ایمنسازی یا امنسازی در برابر حملات سایبری) متوقف کنند. پس با توجه به خطراتِ غیرقابل رفع در نفسِ وجود سلاحهای اتمی، تلاشهایی که بالاتر اشاره شد اساسا بیفایده است.
میدانیم که سیستمهای خودمختار ممکن است آستانهٔ درگیری را در نبردهای مسلحانه کاهش دهند. هوش مصنوعی وقتی در تسلیحات اتمی به کار رود، لایهٔ دیگری از ریسک را به سطح غیرقابل قبول از خطر اضافه میکند. حیاتی است که سیاسیون و افکار عمومی این را تشخیص دهند و نه تنها برای اجتناب از استفاده از هوش مصنوعی در سلاحهای اتمی که برای پاکسازی کامل چنین تسلیحاتی تلاش کنند.