sign

آخرالزمان هسته‌ای هوش مصنوعی؛ آیا می‌توان پیشگیری کرد؟

ملیسا پارک

سیستم‌های خودمختار ممکن است آستانهٔ‌ درگیری را در نبردهای مسلحانه کاهش دهند. اما وجود یک پیمان قانونیِ الزام‌آور که تسلیحاتِ خودمختارِ مرگبار را ممنوع کند، امری حیاتی است…

تاریخ سلاح‌های هسته‌ای پُر است از حوادث قریب‌الوقوعی که اگر انسان به حس قضاوت خود اعتماد نمی‌کرد و کورکورانه از ماشین‌ها پیروی می‌کرد به فاجعه منجر می‌شد. استفاده از هوش مصنوعی در سلاح‌های هسته‌ای این ریسک را در پی دارد که دفعهٔ بعد کسی نتواند مانع شلیک بمب شود.

***

این دیگر یک ماجرای علمی‌تخیلی نیست: مسابقهٔ استفاده از هوش مصنوعی در سلاح‌های اتمی از راه رسیده؛ تحولی که می‌تواند بروز جنگ اتمی را آسان‌تر کند. و در حالی که دولت‌های جهان سعی می‌کنند هوش مصنوعی را به‌طور ایمن توسعه دهند و استعمال کنند، فرصتی برای کاهش این خطر وجود دارد. اما اگر قرار باشد رهبران جهان از این فرصت استفاده کنند، باید جدیّت خطر را واقعا درک کنند.

در هفته‌های اخیر، گروه۷ برای پیشرفت هوش مصنوعیِ ایمن، امن، و قابل اعتماد در دنیا بر سر تاسیس منشور بین‌المللی برای سازمان‌های توسعه‌دهندهٔ هوش مصنوعی توافق کرد، و رئیس‌جمهور آمریکا جو بایدن با صدور یک فرمان اجرایی، استانداردهای جدیدی را برای ایمنی و امنیت هوش مصنوعی وضع کرد. انگلیس هم میزبان اولین نشست ایمنی هوش مصنوعی در جهان بود که هدفش تضمین توسعهٔ ایمن و مسئولانهٔ این تکنولوژی بود.

ولی هیچ کدام از این ابتکارات ریسک‌های استفاده از هوش مصنوعی در سلاح‌های اتمی را به طور کافی رفع نمی‌کند. هم منشور گروه۷ و هم فرمان اجرایی بایدن فقط به طور گذرا به نیاز به محافظت از مردم در برابر تهدیدات شیمیایی و بیولوژیک و اتمی از طرف هوش مصنوعی اشاره می‌کنند. و نخست‌وزیر انگلیس ریشی سوناک هم اصلا اشاره‌ای به تهدید حاد استفادهٔ هوش مصنوعی در سلاح‌های اتمی نکرد، و فقط گفت که در نشستِ ایمنی هوش مصنوعی، تفاهمی دربارهٔ خطرات هوش مصنوعی حاصل شد.

در مورد خطرات حیاتی سلاح‌های اتمی که می‌تواند ویرانی غیرقابل تصوری را بر نژاد بشر و سیارهٔ ما وارد کند شکی نیست. حتی یک جنگ اتمیِ منطقه‌ای صدها هزار تن را مستقیما خواهد کشت و رنج و مرگ غیرمستقیم فراوانی را سبب خواهد شد. و تغییرات اقلیمیِ منتجه به نوبه خود با ایجاد قحطیْ جان میلیاردها انسان را تهدید خواهد کرد.

تاریخ اتمی پُر است از حواث قریب‌الوقوع که در اغلب آن‌ها، چیزی که مانع بروز آخرالزمان شد یک انسان بود که به جای آن‌که کورکورانه از اطلاعات ارائه شده از سوی ماشین‌ها پیروی کند تصمیم گرفت بر حس قضاوت خودش اعتماد کند. مثلا در سال ۱۹۸۳ یک افسر شوروی به اسم استانیسلاو پتروف از یک سیستمِ پیش‌اخطارِ ماهواره‌ایِ تحت نظارتش هشداری دریافت کرد: موشک‌های اتمی آمریکا در حال پرواز به سمت اتحاد شوروی شناسایی شد. اما پتروف به جای اعلام خطر فوری به مافوق‌هایش ‌ــ‌ که بلافاصله منجر به اقدام اتمی تلافی‌جویانه می‌شد ‌ــ‌ به درستی تشخیص داد که این یک هشدارِ اشتباه است.

حالا اگر هوش مصنوعی در آن پروسه استفاده می‌شد، آیا پتروف اعلام خطر می‌کرد یا اصلا فرصتش را داشت؟ در واقع کاربردِ یادگیریِ ماشینی در تسلیحات اتمی، کنترل انسان را بر تصمیم به شلیک آن‌ها کاهش خواهد داد.

البته از زمان اختراع بمب اتم، تعداد زیادی از وظایف کنترل و فرماندهی و ارتباطات به‌صورت خودکار در آمده است. اما با پیشرفت یادگیری ماشینی، روند تصمیم‌گیری ماشین‌های پیشرفته مدام مبهم‌تر می‌شود ‌ــ‌ موضوعی که به مسئلهٔ جعبه سیاهِ هوش مصنوعی معروف شده است. این امر، نظارت بر کارکرد ماشین را سخت می‌کند، از جمله تشخیص این‌که ماشینْ خراب شده یا به دستِ دشمن افتاده، یا طوری برنامه‌ریزی شده که نتایج غیرقانونی یا ناخواسته تولید کند.

صرف اطمینان از این‌که انسانْ تصمیم نهایی برای شلیک را می‌گیرد برای کاهش این ریسک‌ها کافی نیست. همان‌طور که روان‌شناس جان هاولی در مقاله‌ای تحقیقی در ۲۰۱۷ نوشت: انسان‌ها در نظارت و مداخله‌ای که سیستم کنترل از آن‌ها مطالبه می‌کند بسیار ضعیف‌اند.

علاوه بر این‌ها، برنامه علم و امنیت جهانی در دانشگاه پرینستون در سال ۲۰۲۰ نشان داد که مسئولانِ روندهای تصمیم‌گیری در بحران‌های هسته‌ای، در حال عادی هم بسیار شتابزده عمل می‌کنند. حتی اگر هوش مصنوعی صرفا در حسگرها و هدف‌گیری استفاده شود، و نه در تصمیم برای شلیک بمب، بازهٔ زمانیِ تصمیم به حمله را، که در حالت عادی هم بسیار کوتاه است، کوتاه‌تر از قبل می‌کند. این فشارِ افزوده بر مسئولانْ ریسکِ خطای محاسبه یا انتخاب‌های نامعقول را افزایش خواهد داد.

اما یک خطر دیگر، مربوط به استفاده از هوش مصنوعی در ماهواره‌ها و سیستم‌های شناسایی هوش مصنوعی است، چون پنهان کردن تسلیحات اتمی که به‌طور تاریخی مخفی بوده‌اند مثل زیردریایی‌های مجهز به موشک بالستیک را دشوارتر می‌کند. این امر در هنگام بروز جنگ می‌تواند کشورهای مسلح به بمب اتم را وادار کند تا تمام سلاح‌های اتمی‌شان را زودتر از قبلْ اعزام و مستقر کنند، چون آن‌ها نمی‌خواهند شانسِ بازداریِ سیستم‌های اتمیِ لو رفته را به دشمنان‌شان بدهند.

تا حالا همهٔ ابتکارات، چه فرمان اجرایی بایدن یا منشور گروه۷، صرفا تعهداتی داوطلبانه بوده که از انسان می‌خواهد کنترلِ تصمیم‌گیری برای استفاده از سلاح اتمی را در دست داشته باشد. اما همان‌طور که آنتونیو گوتیرش دبیرکل سازمان ملل گفته، وجود یک پیمان قانونیِ الزام‌آور که تسلیحاتِ خودمختارِ مرگبار را ممنوع کند، امری حیاتی است.

و گرچه تاسیس چنین پیمان‌هایی به عنوان گام اول ضروری است، کارهای خیلی بیشتری لازم است که انجام شود. وقتی پای سلاح‌های اتمی در میان باشد، تلاش برای پیش‌بینی، کاهش، یا نظارت بر خطراتِ جدیدِ ناشی از تکنولوژی هرگز کافی نیست. این سلاح‌ها کلا باید از مدار خارج شوند.

اما این در عمل یعنی همهٔ دولت‌ها با پیوستن به پیمان منع گسترش سلاح‌های هسته‌ای، به تقبیح و ممنوعیت و پاکسازی سلاح‌های اتمی متعهد شوند. و همین‌طور یعنی کشورهای مسلح به سلاح اتمی سرمایه‌گذاری در مدرن‌سازی و گسترش زرادخانه‌های اتمی خود را (از جمله به بهانهٔ ایمن‌سازی یا امن‌سازی در برابر حملات سایبری) متوقف کنند. پس با توجه به خطراتِ غیرقابل رفع در نفسِ وجود سلاح‌های اتمی، تلاش‌هایی که بالاتر اشاره شد اساسا بی‌فایده است.

می‌دانیم که سیستم‌های خودمختار ممکن است آستانهٔ‌ درگیری را در نبردهای مسلحانه کاهش دهند. هوش مصنوعی وقتی در تسلیحات اتمی به کار رود، لایهٔ دیگری از ریسک را به سطح غیرقابل قبول از خطر اضافه می‌کند. حیاتی است که سیاسیون و افکار عمومی این را تشخیص دهند و نه تنها برای اجتناب از استفاده از هوش مصنوعی در سلاح‌های اتمی که برای پاکسازی کامل چنین تسلیحاتی تلاش کنند.

کتابستان

شبانه

نگار خلیلی

شهسوار سویدنی

لئو پروتز

چار دختر زردشت

منیژه باختری

دموکراسی انجمنی

مهدی جامی

تاملاتی بر هیتلر

زِبستییان هفنر