ادبیات، فلسفه، سیاست

F2JGJNRTX4I6TJAA4SA36JSP3Q

فناوریِ اخلاق‌گرا: آیا باید نگران تاثیرات هوش مصنوعی باشیم؟

پاولا بادینگتون | ترجمه پوریا معلم

هوش مصنوعی انواع مختلفی دارد و به‌طُرق مختلفی قابل‌استفاده است؛ بحث ما دربارۀ «خوب» یا «بد» بودنِ استفاده از اِی‌آی نیست. در مواردی، کار با اِی‌آی ممکن است تشویق‌مان کند که رویکردهای‌مان را اصلاح کنیم. اما در موارد دیگر، می‌تواند رویکرد ما را درقبال مسائلِ مهمْ تضعیف کرده یا تخفیف دهد.

پسرکی پنج‌ساله در آشپزی به مادربزرگش کمک می‌کند، و خمیرهای کلوچه‌ای که او درست کرده را بُرش می‌زند؛ کار پسرک چندان خوب نیست. پَس به روباتِ خانگی دستور می‌دهد تا جایش را بگیرد. روبات با این‌که قبلا این‌کار را انجام نداده، زود یاد می‌گیرد چه‌کار کند و خمیرهای کلوچه را بی‌نقص بُرش می‌زند. اما مادربزرگ خیلی ناامید شده است، چون به‌یاد بیسکویت‌هایی افتاد که پسرِ خودش وقتی بچه بود به‌طرزِ بامزه‌ای برای او درست می‌کرد – همان بیسکویت‌های کج‌وکوله‌ای که اثرات انگشت پسرش روی‌شان افتاده بود. حالا نوه‌اش برای این‌جور کارها از روبات استفاده می‌کند و بدونِ این‌گونه مهارت‌های دستی و جسمانی بزرگ خواهد شد.

وقتی والدینِ پسرک به خانه می‌آیند، پسرک به آن‌ها می‌گوید: «ببینین، این بیسکویت‌ها رو من برای شما درست کردم.» یکی از والدین می‌گوید: «وای، چه خوشگلن، میشه یکی‌شون‌و بخورم؟» یکی دیگر از والدین پیشِ خودش فکر می‌کند: «اِی کَلَک، تو این‌ها رو خودت درست نکردی.»

هوش مصنوعی یا اِی‌آی (AI)، بالقوه می‌تواند نحوۀ انجام کارهای ما و همچنین ارزش‌های ما را تغییر دهد. اگر قرار باشد هوش مصنوعی به‌جای ما فکر کند، استخدام‌کردنِ آن ممکن است باعث تضعیفِ مهارت‌های فکری ما شود.

هوش مصنوعی که امروزه دراختیار داریم، محدود است – یعنی تنها می‌تواند وظایفی مشخص و ازقبل‌تعریف‌شده انجام دهد. و حتی اگر روزی اِی‌آی بتواند برخی کارها را به‌خوبیِ آدم‌ها یا بهتر از آن‌ها انجام دهد، الزاما با روشی مشابه انسان‌ها این کارها را عملی نمی‌کند. یکی از چیزهایی که اِی‌آی خیلی به آن وارد است، حلاجی‌کردنِ انبوهی از داده‌ها در زمانی اندک است. با کمک فناوریِ یادگیریِ ماشین (machine learning)، یک هوش مصنوعی که با استفاده از هزاران تصویر آموزش دیده است، می‌تواند قابلیت تشخیصِ عکسِ یک گربه را در خود پرورش دهد (که با توجه به فراوانیِ تصاویرِ گربه‌ها در اینترنت، یک دستاورد مهم محسوب می‌شود). اما آدم‌ها این کار را به روشی خیلی متفاوت انجام می‌دهند. یک بچۀ کوچک معمولا بعد از فقط یک‌بار دیدنِ گربه، می‌تواند آن را شناسایی کند.

از آنجایی‌که نحوۀ «فکرکردنِ» هوش مصنوعی، ممکن است با طرزفکر انسان‌ها متفاوت باشد، و چون گرایشی عمومی برای غرق‌شدنِ در جاذبۀ اِی‌آی وجود دارد، استفاده از آن می‌تواند روش انجام کارها و نحوۀ تصمیم‌گیری ما را تغییر دهد. اغوای وسوسه‌انگیزی که حولِ اِی‌آی وجود دارد، درواقع معرف یکی از خطرات آن هم هست. یک موضوعِ ناامیدکننده برای آ‌ن‌هایی که در این حوزه کار می‌کنند این است که تقریبا هر مطلبی دربارۀ اِی‌آی نوشته می‌شود، توانایی‌های آن را تبلیغ می‌کند، و حتی مطالبِ مربوط به کاربردهای پیش‌پاافتادۀ هوش مصنوعی، مزیّن به تصاویرِ روبات‌های قاتل هستند.

هوش مصنوعی انواع مختلفی دارد و به‌طُرق مختلفی قابل‌استفاده است؛ بحث ما دربارۀ «خوب» یا «بد» بودنِ استفاده از هوش مصنوعی نیست. در مواردی، کار با هوش مصنوعی ممکن است تشویق‌مان کند که رویکردهای‌مان را اصلاح کنیم. اما در موارد دیگر، می‌تواند رویکرد ما را درقبال مسائلِ مهمْ تضعیف کند.

تاثیر فناوری بر شکل‌دهیِ ارزش‌های ما موضوعی کاملا شناخته‌شده است. من اخیرا در میزگردی که دربارۀ اخلاقیاتِ هوش مصنوعی برگزار شده بود، شرکت کردم و گروهی که عضوشان بودم، بیشترِ وقتِ خود را صرف بحث دربارۀ نمونۀ معروفِ ماشین لباس‌شویی کرد، که لباس‌شستن را «دراختیار» نگرفت، بلکه نگرشِ ما نسبت به مفهومِ تمیزی و خانه‌داری را به‌طور جدی تحت‌تاثیر قرار داد. از آنجایی‌که هوش مصنوعی فقط برای کمک به رخت‌شویی طراحی نشده، بلکه برای کمک به نحوۀ فکرکردنِ‌مان و نحوۀ تصمیم‌گیری دربارۀ وظایفِ نامحدود طراحی شده، باید دربارۀ تغییراتی که ممکن است در افکار و رفتار خودمان ایجاد کند، به‌طور جدی تامل کنیم.

مهم است که به یاد داشته باشیم، هوش مصنوعی انواع مختلفی دارد و به‌طُرق مختلفی قابل‌استفاده است؛ بحث ما دربارۀ «خوب» یا «بد» بودنِ استفاده از اِی‌آی نیست. در مواردی، کار با اِی‌آی ممکن است تشویق‌مان کند که رویکردهای‌مان را اصلاح کنیم. اما در موارد دیگر، می‌تواند رویکرد ما را درقبال مسائلِ مهمْ تضعیف کرده یا تخفیف دهد.

ما خیلی سریع به فناوری عادت می‌کنیم. متوجه تغییرات نشدن و سازگاریِ سریع به فناوری می‌تواند به این معنی باشد که ما نسبت به این‌گونه تغییراتِ فرهنگی و ارزشیْ آگاهیِ کامل نداریم. مثلا، همگام با تغییراتِ عمده در فناوری‌های ارتباطیِ ما و تغییر عمده در نحوۀ اشتراک‌گذاری و پردازشِ داده‌ها، نگرش‌ها نسبت به حریم خصوصی هم دچار دگرگونی عمیقی شده است. درواقع یکی از عواملِ مهمِ پیش‌بَرندۀ هوش مصنوعی، دسترسی به حجم عظیمِ داده‌هاست، و بیشترِ این داده‌ها مربوط به خود ما هستند که وقتی مشغول امور روزمره هستیم گردآوری می‌شوند. بعضی مردم نسبت به سازمان‌هایی که داده‌های‌مان را دراختیار دارند، شدیدا حساس هستند، اما با این‌حال همچنان حجم زیادی از اطلاعاتِ شخصی‌شان را – که تا همین چند سالِ پیش خیلی خصوصی محسوب می‌شدند – در صفحات‌شان منتشر می‌کنند. تحقیقات نشان می‌دهد که نگرانیِ افراد دربارۀ محرمانگیِ داده‌ها، در شرایط مختلفْ فرق می‌کند. معنیِ این حرف این نیست که فناوری «به‌تنهایی» چنین کرده است، چون همیشه تغییرات اجتماعیِ دیگری هم هست که همز‌مان درجریان است.

تاثیر فناوری بر شکل‌دهیِ ارزش‌های ما موضوعی کاملا شناخته‌شده است.

ضمنا دیدگاه ما به جهان، قویا تحت‌تاثیرِ برخی فناوری‌های بخصوصْ قرار دارد، برای همین شاید نسبت به آثارِ جانبیِ آن‌ها نابینا هستیم. چالشِ اِی‌آی این است که ما احتمالا از طرزکار آن کاملا خبر نداریم. فناوری، نحوۀ ارتباط ما با هم، نحوۀ فکرکردنِ ما، و نحوۀ کاوشِ جهان توسط ما را متاثر می‌کند. البته این چیزِ خیلی تازه‌ای نیست: ماشین تحریر، ماشینِ چاپ و تلفن، قبلا نحوۀ درک ما از جهان و تعامل ما را با آن عوض کرده‌اند، و حتی مغزهای‌مان را تغییر داده‌اند. اما هوش مصنوعی، ممکن است حتی از این هم نیرومندتر باشد. الگوریتمی که درونِ فناوریْ جاسازی شده – و ما ازطریقِ آن به داده‌های فراونی دسترسی داریم – می‌تواند اطلاعاتی که به ما می‌رسد، و چگونگیِ رسیدنِ آن به ما، و حتی واکنشِ ما را به آن معین کند. و هوش مصنوعی می‌تواند به‌طور عمدی – و نه به‌خاطرِ پی‌آمدِ ناخواستۀ استفاده از آن – رفتار ما را تغییر دهد. فناوری، غالبا با کمکِ هوش مصنوعی، و با بهره‌کشی از روان‌شناسیِ انسانی، نحوۀ رفتار ما را مشخص می‌کند. در طراحیِ گوشی‌های موبایل و رسانه‌های اجتماعی، از تحقیقاتِ روان‌شناسی دربارۀ چگونگی تولیدِ پاسخ‌های اعتیادآور، الهام گرفته می‌شود.

ما خیلی سریع به فناوری عادت می‌کنیم. متوجه تغییرات نشدن و سازگاریِ سریع به فناوری می‌تواند به این معنی باشد که ما نسبت به این‌گونه تغییراتِ فرهنگی و ارزشیْ آگاهیِ کامل نداریم.

بیایید به برخی نمونه‌های کاربردِ بالقو‌ۀ هوش مصنوعی بپردازیم، که تمرکزشان بر نحوۀ استفاده و تحلیلِ داده‌ها توسط ماشین و انسان است.

قبل از هرچیز بهتر است صادقانه بگوییم که استفاده از هوش مصنوعی به‌جای تصمیم‌گیری انسانی، می‌تواند مزایای بزرگی هم به‌همراه داشته باشد. اشتراک‌گذاریِ سریع و داده‌پردازیِ قدرتمند که سیستم‌های اِی‌آی دراختیارمان قرار می‌دهند، مزایای فوق‌العاده‌ای محسوب می‌شوند. مثلا، پُل نیومن مهندس اطلاعاتِ گروه روباتیکِ موبایلِ آکسفورد اشاره می‌کند که یادگیری از تصادفاتِ خودرویی با رانندۀ انسانی، فرایندی کُند و پیچیده است. حتی افرادِ درگیرِ تصادف ممکن است تجربۀ ناچیزی از آن بیاموزند، و افرادی هم که مستقیما درگیرِ هیچ تصادفی نبوده‌اند، امکانِ یادگیری از تجربۀ تصادفاتِ دیگرانْ ندارند. اما هربار که یک خودروی بی‌راننده تصادف کند، می‌توان همۀ داده‌ها را فورا با بقیۀ خودروهای بی‌راننده به اشتراک گذاشت تا برای کاهشِ احتمالِ تصادف در آینده به‌کار برده شود.

این جنبۀ هوش مصنوعی – یعنی تواناییِ اشتراک‌گذاریِ اطلاعات به‌صورت یک کندوی ذهنی و برای تحلیلِ سریع و دقیقِ داده‌ها – می‌تواند در نحوۀ حل مسائلِ ما پیشرفتی واقعی به‌وجود آورد. اشتراک‌گذاریِ داده‌های انباشته‌شده، کاری‌ست که اِی‌آی خیلی خوب می‌تواند آن را انجام دهد. مهارتِ دیگرش، تحلیلِ سریع داده‌هاست. برای همین است که با کمک هزاران عکسِ مختلف از گربه‌ها، می‌توان هوش مصنوعی را آموزش داد. درواقع، دسترسیِ اِی‌آی به انباره‌های عظیمِ داده، به‌اضافۀ قابلیتِ تحلیل سریعِ این داده‌ها، رشدِ هوش مصنوعی را در زمانِ ما تسریع کرده است.

هرچند خودروهای بی‌راننده هم ممکن است اشتباه کنند، منظور از این نمونه، خطاهای انسانی‌ای است که هوش مصنوعی می‌تواند بر آن‌ها غلبه کند. انسان‌ها به دلایل مختلف نمی‌توانند داده‌های لازم برای تصمیم‌گیریِ درست و عمل‌کردن به آن‌ها را، درک و تحلیل کنند. یک خودرویِ بی‌راننده از پذیرشِ اشتباهِ خود شرمنده نیست، به‌خاطر غرورش از به‌کاربردنِ عینکِ رانندگی خودداری نمی‌کند، موقع خستگیْ اصرار به ادامۀ رانندگی ندارد، و از شرکت در یک دورۀ رانندگیِ پیشرفته سر باز نمی‌زند. خصوصا جایی که پای مسائلِ ارزشی درمیان باشد، یکی از روش‌های بهبودِ تصمیم‌گیریِ انسانی، غلبه بر تعصب و جانبداری و رفتار نامعقول است. برخی از این تعصبات و رفتارهای نامعقول ناشی از ردکردنِ اطلاعاتِ مرتبط یا ناتوانی در پردازشِ آن‌هاست. پس این مدل از اِعمالِ هوش مصنوعی بر داده‌های انباشته‌شده، می‌تواند برای تصمیم‌گیری‌های ما یک امتیاز باشد.

اما این نتیجه‌گیری، ممکن است شتابزده هم باشد. همۀ مشکلاتِ ما با یک رویکردِ صرفا داده‌گرایانه قابل‌حل نیست. کاملا مشخص است که پرهیز از تصادفِ خودرو چیز خوبی‌ست. این یک اقدامِ ایمنی است که عمدتا شاملِ اصلاحاتِ تکنولوژیک می‌شود، و ارزیابیِ موفقیتِ آن هم نسبتا ساده است؛ یعنی خودرو یا تصادف می‌کند، یا نمی‌کند، و مرگ و جراحت را هم می‌توان مشخص کرد. ضمنا شرایطِ نزدیک‌به‌تصادف را هم می‌توان تقریبا به‌راحتی اندازه‌گیری کرد. اما درمورد مسائلی که کمتر فنی هستند، مطمئن نیستیم که رویکردِ «کَندوی ذهنیِ» داده‌محورْ همیشه خوب از آب درمی‌آید.

هوش مصنوعی می‌تواند تفاوت‌های جزئی میان تصاویر مشابه را – که چشم انسان قادر به تشخیص آن‌ها نیست – شناسایی کند. اما ممکن است اشتباهاتِ فاحشی هم بکند که انسان هرگز مرتکب آن‌ها نمی‌شود. 

مثلا رشتۀ پزشکی را درنظر بگیرید که یکی از حوزه‌های امیدبخشِ هوش مصنوعی است. پزشکی هم علم است و هم هنر: علم و فناوری را با ارزش‌ها ترکیب می‌کند، ارزش‌هایی چون: سلامت، روابطِ خوب با بیماران، مراقبت‌های انسان‌محور، استقلال بیماران، و دیگر ارزش‌ها. در پزشکی، ما فقط به‌دنبال چاره‌های کوتاه‌مدتِ تکنولوژیک نیستیم.

کاربردِ هوش مصنوعی در تشخیصِ بیماری‌ها، بسیار امیدبخش است، مثلا کاوش در داده‌های حجیم برای کمک به تفسیرِ تصاویرِ پزشکی. این‌طور که شواهد نشان می‌دهد، اِی‌آی می‌تواند تفاوت‌های جزئی میان تصاویر مشابه را – که چشم انسان قادر به تشخیص آن‌ها نیست – شناسایی کند. اما ممکن است اشتباهاتِ فاحشی هم بکند که انسان هرگز مرتکب آن‌ها نمی‌شود. برای همین هم فعلا به‌نظر می‌رسد بهترین گزینه برای بهبودِ فرایندهای تشخیصی، ترکیب‌کردنِ هوش مصنوعی با مهارت‌های انسانی باشد. این‌ها، همه خبرهای خوبی هستند.

اما سال ۲۰۱۸، چند تن از اعضای دانشکدۀ پزشکی دانشگاه استنفوردِ کالیفرنیا به‌نام‌های دانتون چار، نیگام شاه و دیوید مگنوس، در ژورنال پزشکی نیواینگلند سوالاتی جدی دربارۀ کاربردِ هوش مصنوعی در تصمیماتِ تشخیصی و درمانیْ مطرح کردند. پزشکی را به‌عنوان یک علم درنظر بگیرید. اگر هوشِ مصنوعیْ «مخزنِ جمعیِ ذهنِ پزشکی» باشد، ما باید در استفاده از آن بسیار محتاط باشیم تا باعث یکنواخت‌شدنِ تفکرِ حرفه‌ای نشده و مانعِ استقلالِ فکری و مانعِ استفاده از تجربۀ بالینیِ شخصی نشود. امروزه این موضوع پذیرفته شده است که درمورد تشخیص و درمانْ اختلاف‌نظرهایی ممکن است وجود داشته باشد. اگر ما کاملا مطمئن باشیم که هوش مصنوعی فقط موجب افزایشِ دقت کار می‌شود، در این‌صورت یکنواختیِ بیشتر در تفکرِ پزشکی ایرادی ندارد. اما این خطر وجود دارد که هوش مصنوعی باعث لغوِ نابهنگامِ برخی تصمیمات شده یا ما را در مسیر‌های درمانیِ خاصی هدایت کند. از این‌گذشته، مولفانِ مذکور هشدار می‌دهند که این‌گونه یادگیریِ ماشینی حتی ممکن است برای سوق‌دادنِ بیماران به‌سمتِ درمانی مشخص یا برای کسب منافع شخصی مورد استفاده قرار گیرد، تا این‌که برای خیرِ بیماران به‌کار برده شود. یعنی به‌جای این‌که پزشکیْ داده‌ها را سوق دهد، ممکن است داده‌ها پزشکی را سوق دهند.

حالا، پزشکی را به‌عنوان یک هنر درنظر بگیرید. باید با بیماران به‌عنوان اشخاصی واقعی تعامل کنید که هرکدام زندگی خودشان را دارند. هرچند اِی‌آی می‌تواند به ما کمک کند بهتر برای سلامتی‌مان تصمیم‌گیری کنیم، اما برای بعضی از بیماران روی‌هم‌رفته معالجاتِ با احتمالِ موفقیتِ کمتر، ممکن است گزینۀ مناسب‌تری باشد. یک رویکردِ داده‌محور به‌تنهایی نمی‌تواند چنین چیزی را به ما نشان دهد. و ما باید مراقب باشیم که مسحورِ قدرتِ فناوری نشویم. چون می‌دانیم که درعمل، رضایتِ آگاهانه و آزاد بسیار مشکل به‌دست می‌آید، و این‌که نظامِ پزشکی بر تصمیم‌گیری و رضایتِ بیماران تاثیر می‌گذارد. اما با افزایشِ مقام و منزلتِ فناوری و قراردادهای حرفه‌ایِ جامع، این خطر وجود دارد که پیوندخوردنِ اقتدارِ حرفۀ پزشکی با قدرتِ فزایندۀ هوش مصنوعی – یعنی «تجویز دارو توسطِ کامپیوتر» – به یک واقعیت بدل شود.

قابلیتِ اِی‌آی برای دست‌کاری و پردازشِ حجم عظیمی از داده‌ها، ممکن است وادارِمان کند که برای تشخیص و حل مسائل، تسلیمِ محض رویکردهای نادرستِ داده‌محور شویم.

پزشکْی حولِ رابطۀ پزشک و بیمار – و درکِ ما از اخلاق پزشکی – می‌گردد. اما کاربردِ اِی‌آی می‌تواند این را تاحدی، یا حتی به‌طور بنیادی، تغییر دهد. استفاده از هوش مصنوعی برای بهبودِ مراقبت از بیماران، ازجنبۀ اخلاقیْ هدفی قابل‌ستایش است، ولی ما باید مراقب باشیم که دقیقا چه‌طور می‌خواهیم آن را پیاده‌سازی کنیم.

قابلیتِ اِی‌آی برای دست‌کاری و پردازشِ حجم عظیمی از داده‌ها، ممکن است وادارِمان کند که برای تشخیص و حل مسائل، تسلیمِ محض رویکردهای نادرستِ داده‌محور شویم. این موضوع، حتی در مواردی که نیازمندِ تنوع افکار و رویکردها هستیم، می‌تواند منجر به یکنواخت‌سازیِ طرزفکرهای مختلف شود. ضمنا می‌تواند مانعِ دیده‌شدنِ عوامل دیگر هم بشود، و به‌این‌ترتیب، نه‌تنها تفکر ما را دست‌کاری کرده، بلکه ارزش‌های ما را هم تحریف کند.

خیلی وقت‌ها این پرسش‌های کلیدی مطرح می‌شوند که: چه‌کسی تصمیم می‌گیرد، و چه‌طور تصمیم می‌گیرد؟ چه‌کسی کار را انجام می‌دهد، و چه‌طور آن را انجام می‌دهد؟ این پرسش‌ها به‌خصوص وقتی مطرح می‌شوند که پای ارزش‌ها درمیان باشد. والدینی که شک داشتند پسرک‌شان کلوچه‌ها را به‌تنهایی درست کرده باشد، حق داشتند. شاید اگر پسرک اول روبات را طراحی می‌کرد و آن را می‌ساخت، ادعایش اعتبارِ بیشتری داشت. نقشِ این عوامل، درموارد مختلفْ فرق می‌کند، همان‌طور که ظرفیتِ جایگزینیِ هوشِ انسان با هوش ماشین متفاوت است.

شاید در آینده هوش مصنوعی بتواند به قُضات و هیئت‌های منصفه کمک کند تا بهتر تصمیم بگیرند

مثلا، محاکمِ قضایی و هیئت‌های منصفه را درنظر بگیرید. همۀ ما می‌دانیم که داد‌گاه‌ها و قُضاتْ کامل نیستند: آن‌ها گاهی اطلاعاتِ غلط دریافت می‌کنند. امروزه الگوریتم‌ها به دادگاه‌های آمریکا کمک می‌کنند که دربارۀ صدور احکام و آزادیِ مشروط بهتر تصمیم‌گیری کنند – مثلا استفاده از داده‌ها و اطلاعاتِ مربوط به نرخِ تکرارِ جرائم در موضوعات بحث‌برانگیز. نگرانی‌های جدی‌ای وجود دارد که این موضوع باعث تشدیدِ تبعیض‌های موجود علیه برخی گروه‌ها شود. اما تصور کنید ما به‌جایی برسیم که دادنِ همۀ شواهدِ موجود به کامپیوتر، باعثِ صدورِ احکامِ دقیق‌تری نسبت به احکامِ قُضاتِ انسانی شود. در این مورد، کامپیوتر می‌تواند همۀ داده‌ها را سریع و (در این نمونۀ خیالی) دقیق و موثر، ترکیب و تحلیل کند. حالا این را با نحوۀ کار دادگاه‌های واقعی مقایسه کنید، که در آن‌ها افراد حرف‌های متضادی دربارۀ یک ماجرای واحد بیان کرده، و چیزهای متفاوتی را به‌خاطر می‌آورند، و حتی بعد از ساعت‌ها فکرکردن، هنوز دیدگاه‌های مختلفی دربارۀ شواهدِ ماجرا وجود دارد. قدرتِ اِی‌آی در گردآوری و تحلیل داده‌ها، می‌تواند پاسخگوی این کمبودها باشد.

اما این نمونه نشان می‌دهد که ما فقط به‌دنبال انجامِ صحیحِ امور نیستیم. حتی اگر با کمک ماشین به پاسخ دقیق‌تری برسیم، بازهم دلیلی برای اهمیت‌دادن به نقشِ متمایزِ انسان در جایگاهِ قضاوت وجود دارد. نگاه کنید به تاریخچۀ مبارزه برای اصلاحاتِ حقوقی و حقوق فردی، و این موضوع را درنظر بگیرید که محاکمه‌شدن در حضورِ یک دادگاهِ انسانی، به حفظِ حرمتِ فرد هم می‌کند. شاید روزی بخواهیم این را به هوش مصنوعی واگذار کنیم – ولی شاید هم نخواهیم چنین کنیم.

البته، تمایل به تاثیرپذیری از هیجانات و تبعیضی که آدم‌ها ممکن است به آن دچار شوند، یک نقطه‌ضعفِ بالقوه در صدورِ حُکم است. اما همچنین انگیزه‌ای برای تغییردادنِ قانون هم بوده است. مواردی از «تبرئه توسط هیئت منصفه» وجود دارد که در آن‌ها – هرچند با اِعمالِ دقیقِ قانون، مشخص است متهم گناه‌کار بوده – به‌خاطر تاثیرپذیری از عواطف انسانیِ ناسالم، هیئت‌های منصفه قادر به صدور حکمِ محکومیت نبوده‌اند. هرچند ماشین در ارزیابیِ شواهد خیلی خوب عمل می‌کند، هنوز خیلی مانده ماشین‌هایی بسازیم که دارای حسِ دقیقِ قضاوتِ بوده، نگاه‌بانِ مظلومان باشند، و مبانیِ اخلاقیِ استواری برای به‌چالش‌کشیدنِ نظامِ حقوقی داشته باشند.

شاید در آینده هوش مصنوعی بتواند به قُضات و هیئت‌های منصفه کمک کند تا بهتر تصمیم بگیرند، اما این خیلی فرق دارد با آن‌که فکر کنیم هوش مصنوعی در تصمیم‌گیریِ حقوقی بتواند جایگزین انسان‌ها شود.

اما ایدۀ اخلاقیِ کلی همان است که هیئت‌های منصفه باید منبعِ مستقلِ قضاوت دربرابر منافعِ شخصیِ قدرتمندان باشند. همان‌طورکه لُرد دِلوین سال ۲۰۰۴ در مجلس اعیان گفته است: «هیئت منصفه، فقط ابزارِ عدالت یا چرخِ قانون نیست: چراغی‌ست که نشان‌دهندۀ بقای آزادی است.» و درنظر بگیرید که: ویژگیِ نیرومندِ هوش مصنوعی در پرهیز از تصادفاتِ خودروهای بی‌راننده – و انبارشِ اطلاعات و ترکیب‌کردنِ معلومات – در کاربردهای حقوقی، مستقیما اصل اخلاقیِ استقلالِ مَحاکم را تضعیف می‌کند. این استقلالِ عمل، برای خنثی‌کردنِ نفوذِ منافعِ شخصی بوده و دلیلِ وجودِ محاکمه با حضور هیئت منصفه است، و نه این‌که صرفا مربوط به پردازش اطلاعاتِ ارائه‌شده به دادگاه باشد.

منتقدان ممکن است بگویند که نیاز به استقلالِ عمل، ناشی از این بوده که انسان‌ها بسیار غیرقابل‌اطمینان هستند، یعنی: حرفۀ قضایی نمی‌تواند به‌تنهایی مسئولِ عدالت باشد، اما یک هوش مصنوعیِ دقیقْ می‌تواند حل‌کنندۀ مسئله باشد و شاید حتی، به‌تدریج، به این ایده عادت کرده و نظام حقوقی‌مان را به ماشین‌ها محول کنیم.

اما این خیلی آرمان‌گرایانه است که فکر کنیم می‌توانیم از مشکلِ عدمِ توازنِ قوا و منافع شخصی – که دلیل وجود هیئت‌های منصفه است – فرار کنیم. برای مسئلۀ دادرسیِ غیرعادلانه، به‌جای محول‌کردنِ امر قضاوت به ماشین‌ها، می‌توان جایگزین‌های بهتری هم به‌کار گرفت، مثلا یک نظامِ فرجام‌خواهیِ سریع و دسترس‌پذیر. شاید در آینده هوش مصنوعی بتواند به قُضات و هیئت‌های منصفه کمک کند تا بهتر تصمیم بگیرند، اما این خیلی فرق دارد با آن‌که فکر کنیم هوش مصنوعی در تصمیم‌گیریِ حقوقی بتواند جایگزین انسان‌ها شود. حتی در این مرحله، باید دربارۀ تاثیرات هوش مصنوعی به‌دقت بیندیشیم، و این‌که آیا دارد ما را به سمتِ رویکردهای تروندسالارنه (تکنوکراتیک) سوق می‌دهد یا خیر. قانون، به‌عنوان یک نظام اجتماعی و سیاسیِ بشری، با مشکلات زیادی توسعه یافته است. اما کاربردِ هوش مصنوعی در متنِ قانون، به‌تدریج می‌تواند این وضع را عوض کند. باید این موضوع را به‌دقت بررسی کنیم و تمام عواقبی را که برای عدالت و دموکراسی درپی خواهد داشت، درنظر بگیریم.

جذابیتِ قابل‌توجهِ استفاده از اِی‌آی، فقط به‌خاطر سرعت بالای تحلیل داده‌هاست. کارایی، یک مزیت است، اما عاملِ مزیتْ وابسته به هدفی‌ست که در خدمتِ آن است. ضمنا کاراییْ تنها مزیتِ ممکن نیست. اگر ماشینی بتواند کاری را سریع و موثر انجام دهد، ما احتمالا بیشتر از آن‌چه شایسته است، از آن استفاده خواهیم کرد. و سرعتِ انجامِ وظایف، ممکن است باعث شود نحوۀ تحقق اهداف توسطِ ماشین را نادیده بگیریم. درنتیجه، برای این‌گونه نتایجِ به‌دست‌آمده با راندمانِ بالا، شاید ارزشی بیش‌ازحد قائل شویم.

جذابیتِ قابل‌توجهِ استفاده از اِی‌آی، فقط به‌خاطر سرعت بالای تحلیل داده‌هاست.

اتحادیۀ ضد افترا (ADL) با همکاریِ دی‌لَب (D-Lab) در دانشگاهِ کلیفرنیا، برکلی، درحال توسعۀ شاخصِ نفرت‌پراکنیِ آنلاین یا OHI است؛ آن‌ها برای شناساییِ سخنانِ نفرت‌آمیز در اینترنت، از یادگیریِ ماشین استفاده می‌کنند. این یک نمونۀ جالب است: راه‌حلِ «فناوری برای فناوری» – چون تکثیرِ آنلاینِ «سخنانِ نفرت‌آمیز» (ظاهرا) خودش محصولِ فناوریِ رایانه‌ای بوده است. اما مقصر نشان‌دادنِ مخالفان چیز تازه‌ای نیست.

مدت‌ها پیش از آن‌که تیم برنرز لی (مخترعِ وب) خوابِ جهانِ وب را هم ببیند، رنه دکارت فیلسوف فرانسویِ قرن ۱۷، کارهای پیر دو فرما ریاضیدانِ رقیبش را «گُه» خطاب کرد.

هیاهوی هوش مصنوعیْ وادارمان کرده فکر کنیم بعضی چیزها خیلی تازه یا خطرناکند؛ و برای همین تاریخچۀ طولانیِ فحاشی را نمی‌بینیم. یکی از چیزهایی که ممکن است ما را وادار کند بیش‌ازحد به قابلیت‌های اندکِ اِی‌آی وابسته شویم، دقیقا ناشی از این فرض است که «مشکلِ فناوری = چارۀ فناوری،» و این‌که فناوریِ امروز سرشار از تهدیدهای اخلاقیِ تازه است.

هوش مصنوعی می‌تواند ظرفیتِ آدمی را در همۀ حوزه‌ها ارتقا دهد. اما همۀ این مزایا را باید با بقیۀ ارزش‌های‌مان تطبیق دهیم. ورنه به آن اجازه دهیم طرزفکر ما را دربارۀ برخی از مهم‌ترین ارزش‌ها و فعالیت‌های‌مان، معین کند.

ایدۀ «سخنان نفرت‌آمیز» فی‌نفسه بحث‌برانگیز است. برخی می‌گویند که تلاش برای حذفِ برخی کاربردهای زبان، خواه توسط قانون یا توسط سرویس‌های آنلاین، برای تحققِ اهدافی مثل پاک‌سازیِ تبعیض لازم است. دیگران نگرانند که این تهدیدی برای آزادی بیان، و شکلی از سانسور باشد. نگرانی‌هایی وجود دارد مبنی‌بر این‌که، آن‌چه را عده‌ای سخنانِ نفرت‌آمیز می‌دانند، برای برخی دیگر فقط شوخیِ ساده‌ای بوده، و دسته‌بندیِ چیزی به‌عنوانِ «سخنان نفرت‌آمیز» بدون درنظرگرفتنِ متنِ آن، کار بسیار سختی است. علاوه‌براین، این نگرانی هم وجود دارد که با توجه به حجم عظیم مطالبِ پُست‌شده در دنیای وب، نظارت بر «سخنان نفرت‌آمیز» تلاشی پراکنده و ناهمگون باشد، و برخی هم می‌ترسند که این‌کار باعث هدف‌گیریِ اشتباه برخی گروه‌ها یا افراد شود.

اگر بتوانیم شناساییِ نفرت‌پراکنیِ آنلاین را خودکارسازی کنیم، این می‌تواند به دسته‌بندی و یک‌دست‌سازیِ کار کمک کند. شاخصِ نفرت‌پراکنیِ آنلاین (OHI) با پردازشِ سریع‌ترِ داده‌ها، و اعمالِ درستِ یک سیاستِ نظارتیِ بدوِ تبعیض، می‌تواند به تحقق این اهداف کمک کند. (البته، این بستگی دارد که چه‌طور آن را برنامه‌نویسی کنیم. اگر برنامه‌نویسیِ آنْ آمیخته به تبعیض باشد، آن‌وقت با راندمانِ بالایی تبعیض نشان خواهد داد.)

حالا مسئله این‌جاست. ازطرفی، ایدۀ شناسایی و دسته‌بندی و پا‌ک‌سازیِ «سخنانِ نفرت‌آمیز» توسطِ هوش مصنوعی – با سرعت و انسجامی که از انسان‌ها برنمی‌آید – ما را به‌وجد آورده، و ازطرف دیگر، این موضوع که دنیایِ آنلاین دارد بسیاری از ما را به غول‌های نفرت‌زدۀ بی‌مسئولیت بدل می‌کند، ما را ترسانده است؛ درنتیجه ممکن است این فناوری را با چنان اشتیاقی به‌خدمت بگیریم که مسائلِ دیگرِ مرتبط با سخنانِ نفرت‌آمیز قدری نادیده گرفته شود. خودِ این موضوع ممکن است بحثی را که به‌طورخلاصه به آن می‌گویند بحثِ «نفرت‌پراکنی دربرابر آزادی بیان،» درجهتِ خاصی هدایت کند. به‌عبارتی، می‌تواند به شکل‌گیریِ ارزش‌های ما کمک کند. ترسِ این‌که سخنانِ نفرت‌آمیز باعث اخراجِ فرد از یک شبکۀ اجتماعی شود، می‌تواند به‌راحتی روش‌های ارتباطِ آنلاینِ مردم را تغییر دهد. برخی جنبه‌های این واقعیت ممکن است خوب باشد، اما برخی از وجوهِ آن شاید نه.

مزایای هوش مصنوعی عبارتند از قابلیتِ اشتراک‌گذاریِ داده‌ها برای دسترسی جهانی؛ ظرفیتِ کمک به پاک‌سازیِ تبعیض‌های انسانی؛ همچنین سرعت و کاراییِ عملکرد. هوش مصنوعی می‌تواند ظرفیتِ آدمی را در همۀ حوزه‌ها ارتقا دهد. اما همۀ این مزایا را باید با بقیۀ ارزش‌های‌مان تطبیق دهیم. اگر این‌کار را نکنیم، ممکن است مسحورِ قدرتِ هوش مصنوعی شده و به آن اجازه دهیم طرزفکر ما را دربارۀ برخی از مهم‌ترین ارزش‌ها و فعالیت‌های‌مان، معین کند.

ـــــــــــــــــ
منبع: aeon

کتابستان

چار دختر زردشت

منیژه باختری

دموکراسی انجمنی

مهدی جامی

تاملاتی بر هیتلر

زِبستییان هفنر

دوسیه افغانستان

شاهزاده ترکی الفیصل آل سعود

نیم‌قرن مبارزه و سیاست

سمیه رامش