ژئوپولیتیک جدید هوش مصنوعی: آیا برای مقابله با تهدید آماده‌ایم؟

الینور پاوِلز | ترجمه شریف احمدی

نظام حاکم بر جهان باید هرچه زودتر به ایجاد یک قرارداد اجتماعی جدید کمک کند تا اطمینان یابد که فناوری‌های جدید، و به ویژه هوش مصنوعی، به شکلی ایمن و هماهنگ با نیازهای اخلاقی دنیایی که به سمت جهانی‌سازی به پیش می‌رود، به کار می‌رود.

این‌روزها، خیلی از بات‌های مخرب انترنتی، صفحات فیسبوکی وبسایت‌های خبری جعلی انترنت را تسخیر کرده‌اند که پیامدهای قابل توجهی در سطح جهان داشته است. فقط چند رویداد اخیر را در نظر بگیرید: در انتخابات ریاست جمهوری سال ۲۰۱۶ امریکا، روسیه با استفاده از  یک کارزار انتخاباتی گسترده‌، شامل تبلیغات پولی، حساب‌های رسانه‌ای جعلی و محتواهای متضاد و اختلاف‌برانگیز بود، به حمایت از یکی از کاندیداها پرداخت و او را در برابر رقیبش تقویت کرد.

در چین، شرکت‌های بزرگ فناوری‌ای چون علی‌بابا و تنسنت میلیون‌ها دوربین تشخیص چهره را به‌کار گرفته‌اند تا جریان‌ مداوم داده‌های خصوصی شهروندان را کنترل کنند. در میانمار، یک گزارش سازمان ملل متحد تایید کرده که پست‌های فیسبوکی سازماندهی‌‌شده بر ضد مسلمانان روهینگیا موجب افزایش نفرت‌ هتک حرمت آن‌ها شده است.

اتحاد قدرتمند و پرمنفعت میان هوش مصنوعی و جامعه‌ٔ اطلاعات‌محور، شبکه‌های اجتماعی را به معماران تعاملات ما تبدیل کرده؛ این شبکه‌ها در حال شکل‌دهی واقعیت به نحو دلخواه خود هستند.

در این وضعیت، نگرانی‌هایی جدی در خصوص از کنترل خارج شدن انقلاب الگوریتمی مطرح شده است. انقلابی که ظاهرا برای بسیاری نه قابل درک است و نه قابل پیش‌بینی. و هم‌زمان اعتماد به دولت‌ها و سازمان‌های جهانی برای مهار این وضعیت به شدت مخدوش شده است.

در حال حاضر، به نظر می‌رسد فناوری‌ هوش مصنوعی به جای تقویت راه‌کارهای کنترلی در جهان، به تضعیف آن بیشتر تمایل دارند. سازمان ملل متحد در این زمینه با دشواری‌های عظیم و در هم‌تنیده‌ای روبروست که در این‌جا سه چالش آن را بررسی می‌کنیم.

همزمان با تکامل هوش‌ مصنوعی و ربات‌ها، بحث‌های زیادی درباره تهدید این فناوری جدید نسبت به حیات انسان به راه افتاده است.

هوش مصنوعی و قُلب واقعیت

هوش مصنوعی به‌طور ذاتی یک فناوری دوکاربردی است که پیشبینی و مهار پیامد‌های چشم‌گیر آن (منفی مثبت) به شدت دشوار است.

مثلا در حالا حاضر، برنامه‌های پیچیدهٔ هوش مصنوعی – موسوم به دیپ‌فیک (Deepfake) – می‌تواند صداها، تصاویر و ویدیوها را با هدف جعل هویت طوری دستکاری کند که تفکیک آن اغلب از نسخهٔ اصلی ناممکن است. هوش مصنوعی با تکیه بر الگوریتم‌های موسوم به یادگیری‌ عمیق یا Deep Learning، با دقتی حیرت‌آور می‌تواند لب‌خوانی کند و سخن بگوید و تا حدی حالات چهره انسان را هنگام ادای واژه‌ها شبیه‌سازی کند.

چنین فناوری‌هایی در بیرون از آزمایشگاه به راحتی می‌تواند مورد سوءاستفاده قرار گیرد که تبعاتی گسترده‌ به همراه خواهند داشت. (در واقع، همین حالا چنین سوءاستفاده‌هایی در سطح پایینی صورت می‌گیرد.) در جریان انتخابات ویدیو‌های جعلی دیپ‌فک می‌توانند مقامات دولتی را در به عنوان افرادی پول‌شویی مرتبط‌ند، نشان دهد؛ هشدارهای تقلبی ویدیویی در مورد اپیدمی‌ها یا حملات سایبری‌، می‌تواند به افزایش هراس عمومی منجر شود و یا از این فناوری به منظور افزایش تنش‌های بین‌المللی استفاده شود.

تاثیرگذاری بر افکار عمومی با شبیه‌سازی‌های گمراه‌کننده می‌تواند بر نقش سازمان ملل در تأمین صلح و امنیت جهانی اثرات درازمدت و قوی‌ای به جا بگذارد. اخبار جعلی، با از‌ بین بردن تدریجی حس اعتماد میان شهروندان و دولت – و حتی میان دولت‌ها – می‌تواند برای به نظام قانونی حاکم بر جهان صدمه وارد کند.

هوش مصنوعی و نظارت دقیق

هوش مصنوعی در حال حاضر با انواع فناوری‌های دیگر، از جمله بیوتکنولوژی، که نقش مهمی در امنیت جهانی دارد، سازگار و مرتبط است. سیستم‌های هوش مصنوعی در سراسر جهان برای پیش‌بینی جنبه‌های مختلف زندگی روزمرهٔ ما، با تجزیه و تحلیل و معنا‌بخشی به مجموعه‌های اطلاعات و داده‌های عظیمی مثل الگوهای ترافیک شهرها، بازارهای مالی، روند داده‌های رفتار مصرف‌کننده، پرونده‌های بهداشتی و حتی ژنوم‌های ما، توسعه داده شده‌اند.

چهره سوفیا ربات انسان‌نمای ساخت شرکت هانسن رباتیک در هنک‌کنگ. سوفیا می‌تواند با انسان به شکلی معنادار مکالمه کند و هنگام حالات چهره‌ای متناسب با حرف‌های خود نشان دهد. عربستان سعودی در اکتبر ۲۰۱۷ در جریان اجلاسی در ریاض با موضوع سرمایه‌گذاری در این کشور، به سوفیا شهروندی افتخاری عربستان را داد.

این قابلیت‌های هوش مصنوعی به‌طور فزاینده‌ای می‌تواند داده‌های رفتاری و بیولوژیکی ما را به اشکالی نوآورانه و اغلب دست‌کاری‌شده، تحت کنترل درآورند که پیامدهایی برای همهٔ ما خواهد داشت. به عنوان نمونه، عروسک‌ هوشمند «دوست من، کایلا» داده‌ها و اطلاعات صدا و هیجانات کودکانی را که با آن بازی می‌کنند، به سرور تولیدکننده خود می‌فرستد. همین امر منجر به شکایت کمیسیون تجارت فدرال آمریکا از تولیدکننده و ممنوعیت این عروسک در آلمان شده است. در حال حاضر در دادگاه‌های ایالات متحده از تجزیه و تحلیل‌های تصاویر ویدیویی برای تشخیص حس ندامت و پشیمانی استفاده می‌شود و امکان دارد به‌زودی از همین شیوه برای مصاحبه‌های شغلی و ارزیابی پاسخ‌های کاندیداها و شایستگی‌شان برای شغل مورد نظر، استفاده شود.

توانایی هوش مصنوعی در زمینهٔ نفوذ بالقوهٔ بر رفتار افراد تاثیرات مستقیمی بر برنامهٔ حقوق بشر سازمان ملل دارد. اشکال جدید کنترل اجتماعی و بیولوژیکی می‌تواند در واقع، نیازمند تجدید نظر در چارچوب کنونی برای نظارت بر اجرای اعلامیه جهانی حقوق بشر باشد، و قطعا مستلزم این خواهد بود که نظام جهانی پیش‌بینی بهتر و درکی از پیچیدگی‌های فزاینده مرتبط با هوش مصنوعی داشته باشد.

هوش مصنوعی در میدان نبرد

و سرانجام این که، توانایی فناوری‌های هوش مصنوعی برای اثرگذاری بر جمعیت‌های بزرگ از چنان ارزش فوری و  برجسته‌ای برخوردار است که تقریبا با اطمینان کامل می‌شود گفت که هوش مصنوعی عرصهٔ نبردهای آینده خواهد بود. در این زمینه، احتمال وقوع جدی یک «مسابقه سایبری» وجود دارد؛ مسابقه‌ای که در آن کشورهای قدرتمند با تکنولوژی هوش مصنوعی برای جمع‌آوری اطلاعات، به عنوان سوخت دستیابی به برتری اقتصادی، پزشکی و امنیتی در سراسر جهان، وارد رقابتی آشکار ‌شوند. از سوی دیگر، در حالی‌که دولت‌های قدرتمند به شکلی روزافزون به توانایی‌های بیشتری در خصوص هوش مصنوعی و فناوری بیولوژیکی برای فهم و کنترل بالقوهٔ جمعیت و اکوسیستم دیگر کشورها دست می‌یابند، احتمال شکل‌گیری اَشکالی از «استعمار سایبری» نیز افزایش می‌یابد.

این عروسک‌ هوشمند به ظاهر بی‌خطر اطلاعات صدا و هیجانات کودکانی را که با آن بازی می‌کنند، به سرور تولیدکننده خود می‌فرستد.

به سوی حاکمیت جهانی هوش مصنوعی

از نظر سیاسی، قانونی و اخلاقی، جوامع ما برای استقرار و به‌کارگیری گستردهٔ هوش مصنوعی آماده نیستند. و سازمان ملل متحد، که دهه‌ها قبل از ظهور فناوری‌های تاسیس شده، از بسیاری جهات برای ایجاد نظام جهانی مسئولی که توانایی و ظرفیت ممانعت از سوءاستفاده از هوش مصنوعی را داشته باشد، ناکارآمد است.

در واقع، بازگشت ناسیونالیسم در برخی از کشورهای جهان می‌تواند از کاهش تدریجی ظرفیت نظام جهانی با نقشی معنادار در کنترل هوش مصنوعی، حاکی باشد. این احتمال وجود دارد که در آینده شرکت‌های بزرگ و کشورهای قدرتمند به رویکردهای چندملیتی ارزشی چندانی قائل نشوند، چرا‌ که هوش مصنوعی سودآور است و بسیاری ترجیح می‌دهد در مالکیت خصوصی باقی بماند.

با همهٔ این‌ها، برخی راه‌کارهای بدیع وجود دارد که سازمان ملل متحد می‌تواند با استفاده از آن شبکه‌های مشارکتی و شفافی ایجاد کند تا به رفع بی‌اعتمادی نسبت به ظرفیت این سازمان کمک شود.

مرکز تحقیقات سیاست‌گذاری در دانشگاه سازمان ملل متحد، به دلیل ماموریتی که در پیاده‌سازی استراتژی دبیرکل این سازمان در خصوص فناوری‌های جدید دارد، مرکزی به نام «هوش مصنوعی و نظام دولت‌داری جهانی» را به عنوان فضایی برای تعامل و همفکری پژوهشگران، بازیگران سیاسی، شرکت‌ها و رهبران ایجاد کرده تا چالش‌های سیاسی را که هوش مصنوعی در جهان به وجود آورد، بررسی کند.

هدف از ایجاد این مرکز دستیابی به بینش و آگاهی ویژه و تبادل نظرات و تجارب کشورها در خصوص هوش مصنوعی است. دانشی که این مرکز از این طریق کسب می‌کند می‌تواند برای حمایت از کشورهای عضو سازمان ملل، نهادهای چندملیتی و دیگر ذینفعان استفاده شود.

احتمالا مهم‌ترین چالش سازمان ملل در این راستا بازگرداندن اعتماد عمومی به کارآمدی یک نظام جهانی در کنترل هوش مصنوعی خواهد بود. اما قرائن حاکی از آن است که فناوری هوش مصنوعی برای هر فرد و هر دولت یک مسئله است و این‌که بدون شکلی از حاکمیت جمعی و همکارانه، این احتمال به شکلی واقعی وجود دارد که هوش مصنوعی ثبات جهان را به مخاطره خواهد انداخت.

ـــــــــــــــــــــــــــــــــــــ
منبع (تلخیص و ترجمه آزاد): مجله مجمع اقتصادی جهان

 

Share on facebook
Share on twitter
Share on whatsapp
Share on telegram
Share on email
Share on print

این مطالب هم توصیه می‌شود: