پسرکی پنجساله در آشپزی به مادربزرگش کمک میکند، و خمیرهای کلوچهای که او درست کرده را بُرش میزند؛ کار پسرک چندان خوب نیست. پَس به روباتِ خانگی دستور میدهد تا جایش را بگیرد. روبات با اینکه قبلا اینکار را انجام نداده، زود یاد میگیرد چهکار کند و خمیرهای کلوچه را بینقص بُرش میزند. اما مادربزرگ خیلی ناامید شده است، چون بهیاد بیسکویتهایی افتاد که پسرِ خودش وقتی بچه بود بهطرزِ بامزهای برای او درست میکرد – همان بیسکویتهای کجوکولهای که اثرات انگشت پسرش رویشان افتاده بود. حالا نوهاش برای اینجور کارها از روبات استفاده میکند و بدونِ اینگونه مهارتهای دستی و جسمانی بزرگ خواهد شد.
وقتی والدینِ پسرک به خانه میآیند، پسرک به آنها میگوید: «ببینین، این بیسکویتها رو من برای شما درست کردم.» یکی از والدین میگوید: «وای، چه خوشگلن، میشه یکیشونو بخورم؟» یکی دیگر از والدین پیشِ خودش فکر میکند: «اِی کَلَک، تو اینها رو خودت درست نکردی.»
هوش مصنوعی یا اِیآی (AI)، بالقوه میتواند نحوۀ انجام کارهای ما و همچنین ارزشهای ما را تغییر دهد. اگر قرار باشد هوش مصنوعی بهجای ما فکر کند، استخدامکردنِ آن ممکن است باعث تضعیفِ مهارتهای فکری ما شود.
هوش مصنوعی که امروزه دراختیار داریم، محدود است – یعنی تنها میتواند وظایفی مشخص و ازقبلتعریفشده انجام دهد. و حتی اگر روزی اِیآی بتواند برخی کارها را بهخوبیِ آدمها یا بهتر از آنها انجام دهد، الزاما با روشی مشابه انسانها این کارها را عملی نمیکند. یکی از چیزهایی که اِیآی خیلی به آن وارد است، حلاجیکردنِ انبوهی از دادهها در زمانی اندک است. با کمک فناوریِ یادگیریِ ماشین (machine learning)، یک هوش مصنوعی که با استفاده از هزاران تصویر آموزش دیده است، میتواند قابلیت تشخیصِ عکسِ یک گربه را در خود پرورش دهد (که با توجه به فراوانیِ تصاویرِ گربهها در اینترنت، یک دستاورد مهم محسوب میشود). اما آدمها این کار را به روشی خیلی متفاوت انجام میدهند. یک بچۀ کوچک معمولا بعد از فقط یکبار دیدنِ گربه، میتواند آن را شناسایی کند.
از آنجاییکه نحوۀ «فکرکردنِ» هوش مصنوعی، ممکن است با طرزفکر انسانها متفاوت باشد، و چون گرایشی عمومی برای غرقشدنِ در جاذبۀ اِیآی وجود دارد، استفاده از آن میتواند روش انجام کارها و نحوۀ تصمیمگیری ما را تغییر دهد. اغوای وسوسهانگیزی که حولِ اِیآی وجود دارد، درواقع معرف یکی از خطرات آن هم هست. یک موضوعِ ناامیدکننده برای آنهایی که در این حوزه کار میکنند این است که تقریبا هر مطلبی دربارۀ اِیآی نوشته میشود، تواناییهای آن را تبلیغ میکند، و حتی مطالبِ مربوط به کاربردهای پیشپاافتادۀ هوش مصنوعی، مزیّن به تصاویرِ روباتهای قاتل هستند.
هوش مصنوعی انواع مختلفی دارد و بهطُرق مختلفی قابلاستفاده است؛ بحث ما دربارۀ «خوب» یا «بد» بودنِ استفاده از هوش مصنوعی نیست. در مواردی، کار با هوش مصنوعی ممکن است تشویقمان کند که رویکردهایمان را اصلاح کنیم. اما در موارد دیگر، میتواند رویکرد ما را درقبال مسائلِ مهمْ تضعیف کند.
تاثیر فناوری بر شکلدهیِ ارزشهای ما موضوعی کاملا شناختهشده است. من اخیرا در میزگردی که دربارۀ اخلاقیاتِ هوش مصنوعی برگزار شده بود، شرکت کردم و گروهی که عضوشان بودم، بیشترِ وقتِ خود را صرف بحث دربارۀ نمونۀ معروفِ ماشین لباسشویی کرد، که لباسشستن را «دراختیار» نگرفت، بلکه نگرشِ ما نسبت به مفهومِ تمیزی و خانهداری را بهطور جدی تحتتاثیر قرار داد. از آنجاییکه هوش مصنوعی فقط برای کمک به رختشویی طراحی نشده، بلکه برای کمک به نحوۀ فکرکردنِمان و نحوۀ تصمیمگیری دربارۀ وظایفِ نامحدود طراحی شده، باید دربارۀ تغییراتی که ممکن است در افکار و رفتار خودمان ایجاد کند، بهطور جدی تامل کنیم.
مهم است که به یاد داشته باشیم، هوش مصنوعی انواع مختلفی دارد و بهطُرق مختلفی قابلاستفاده است؛ بحث ما دربارۀ «خوب» یا «بد» بودنِ استفاده از اِیآی نیست. در مواردی، کار با اِیآی ممکن است تشویقمان کند که رویکردهایمان را اصلاح کنیم. اما در موارد دیگر، میتواند رویکرد ما را درقبال مسائلِ مهمْ تضعیف کرده یا تخفیف دهد.
ما خیلی سریع به فناوری عادت میکنیم. متوجه تغییرات نشدن و سازگاریِ سریع به فناوری میتواند به این معنی باشد که ما نسبت به اینگونه تغییراتِ فرهنگی و ارزشیْ آگاهیِ کامل نداریم. مثلا، همگام با تغییراتِ عمده در فناوریهای ارتباطیِ ما و تغییر عمده در نحوۀ اشتراکگذاری و پردازشِ دادهها، نگرشها نسبت به حریم خصوصی هم دچار دگرگونی عمیقی شده است. درواقع یکی از عواملِ مهمِ پیشبَرندۀ هوش مصنوعی، دسترسی به حجم عظیمِ دادههاست، و بیشترِ این دادهها مربوط به خود ما هستند که وقتی مشغول امور روزمره هستیم گردآوری میشوند. بعضی مردم نسبت به سازمانهایی که دادههایمان را دراختیار دارند، شدیدا حساس هستند، اما با اینحال همچنان حجم زیادی از اطلاعاتِ شخصیشان را – که تا همین چند سالِ پیش خیلی خصوصی محسوب میشدند – در صفحاتشان منتشر میکنند. تحقیقات نشان میدهد که نگرانیِ افراد دربارۀ محرمانگیِ دادهها، در شرایط مختلفْ فرق میکند. معنیِ این حرف این نیست که فناوری «بهتنهایی» چنین کرده است، چون همیشه تغییرات اجتماعیِ دیگری هم هست که همزمان درجریان است.
ضمنا دیدگاه ما به جهان، قویا تحتتاثیرِ برخی فناوریهای بخصوصْ قرار دارد، برای همین شاید نسبت به آثارِ جانبیِ آنها نابینا هستیم. چالشِ اِیآی این است که ما احتمالا از طرزکار آن کاملا خبر نداریم. فناوری، نحوۀ ارتباط ما با هم، نحوۀ فکرکردنِ ما، و نحوۀ کاوشِ جهان توسط ما را متاثر میکند. البته این چیزِ خیلی تازهای نیست: ماشین تحریر، ماشینِ چاپ و تلفن، قبلا نحوۀ درک ما از جهان و تعامل ما را با آن عوض کردهاند، و حتی مغزهایمان را تغییر دادهاند. اما هوش مصنوعی، ممکن است حتی از این هم نیرومندتر باشد. الگوریتمی که درونِ فناوریْ جاسازی شده – و ما ازطریقِ آن به دادههای فراونی دسترسی داریم – میتواند اطلاعاتی که به ما میرسد، و چگونگیِ رسیدنِ آن به ما، و حتی واکنشِ ما را به آن معین کند. و هوش مصنوعی میتواند بهطور عمدی – و نه بهخاطرِ پیآمدِ ناخواستۀ استفاده از آن – رفتار ما را تغییر دهد. فناوری، غالبا با کمکِ هوش مصنوعی، و با بهرهکشی از روانشناسیِ انسانی، نحوۀ رفتار ما را مشخص میکند. در طراحیِ گوشیهای موبایل و رسانههای اجتماعی، از تحقیقاتِ روانشناسی دربارۀ چگونگی تولیدِ پاسخهای اعتیادآور، الهام گرفته میشود.
ما خیلی سریع به فناوری عادت میکنیم. متوجه تغییرات نشدن و سازگاریِ سریع به فناوری میتواند به این معنی باشد که ما نسبت به اینگونه تغییراتِ فرهنگی و ارزشیْ آگاهیِ کامل نداریم.
بیایید به برخی نمونههای کاربردِ بالقوۀ هوش مصنوعی بپردازیم، که تمرکزشان بر نحوۀ استفاده و تحلیلِ دادهها توسط ماشین و انسان است.
قبل از هرچیز بهتر است صادقانه بگوییم که استفاده از هوش مصنوعی بهجای تصمیمگیری انسانی، میتواند مزایای بزرگی هم بههمراه داشته باشد. اشتراکگذاریِ سریع و دادهپردازیِ قدرتمند که سیستمهای اِیآی دراختیارمان قرار میدهند، مزایای فوقالعادهای محسوب میشوند. مثلا، پُل نیومن مهندس اطلاعاتِ گروه روباتیکِ موبایلِ آکسفورد اشاره میکند که یادگیری از تصادفاتِ خودرویی با رانندۀ انسانی، فرایندی کُند و پیچیده است. حتی افرادِ درگیرِ تصادف ممکن است تجربۀ ناچیزی از آن بیاموزند، و افرادی هم که مستقیما درگیرِ هیچ تصادفی نبودهاند، امکانِ یادگیری از تجربۀ تصادفاتِ دیگرانْ ندارند. اما هربار که یک خودروی بیراننده تصادف کند، میتوان همۀ دادهها را فورا با بقیۀ خودروهای بیراننده به اشتراک گذاشت تا برای کاهشِ احتمالِ تصادف در آینده بهکار برده شود.
این جنبۀ هوش مصنوعی – یعنی تواناییِ اشتراکگذاریِ اطلاعات بهصورت یک کندوی ذهنی و برای تحلیلِ سریع و دقیقِ دادهها – میتواند در نحوۀ حل مسائلِ ما پیشرفتی واقعی بهوجود آورد. اشتراکگذاریِ دادههای انباشتهشده، کاریست که اِیآی خیلی خوب میتواند آن را انجام دهد. مهارتِ دیگرش، تحلیلِ سریع دادههاست. برای همین است که با کمک هزاران عکسِ مختلف از گربهها، میتوان هوش مصنوعی را آموزش داد. درواقع، دسترسیِ اِیآی به انبارههای عظیمِ داده، بهاضافۀ قابلیتِ تحلیل سریعِ این دادهها، رشدِ هوش مصنوعی را در زمانِ ما تسریع کرده است.
هرچند خودروهای بیراننده هم ممکن است اشتباه کنند، منظور از این نمونه، خطاهای انسانیای است که هوش مصنوعی میتواند بر آنها غلبه کند. انسانها به دلایل مختلف نمیتوانند دادههای لازم برای تصمیمگیریِ درست و عملکردن به آنها را، درک و تحلیل کنند. یک خودرویِ بیراننده از پذیرشِ اشتباهِ خود شرمنده نیست، بهخاطر غرورش از بهکاربردنِ عینکِ رانندگی خودداری نمیکند، موقع خستگیْ اصرار به ادامۀ رانندگی ندارد، و از شرکت در یک دورۀ رانندگیِ پیشرفته سر باز نمیزند. خصوصا جایی که پای مسائلِ ارزشی درمیان باشد، یکی از روشهای بهبودِ تصمیمگیریِ انسانی، غلبه بر تعصب و جانبداری و رفتار نامعقول است. برخی از این تعصبات و رفتارهای نامعقول ناشی از ردکردنِ اطلاعاتِ مرتبط یا ناتوانی در پردازشِ آنهاست. پس این مدل از اِعمالِ هوش مصنوعی بر دادههای انباشتهشده، میتواند برای تصمیمگیریهای ما یک امتیاز باشد.
اما این نتیجهگیری، ممکن است شتابزده هم باشد. همۀ مشکلاتِ ما با یک رویکردِ صرفا دادهگرایانه قابلحل نیست. کاملا مشخص است که پرهیز از تصادفِ خودرو چیز خوبیست. این یک اقدامِ ایمنی است که عمدتا شاملِ اصلاحاتِ تکنولوژیک میشود، و ارزیابیِ موفقیتِ آن هم نسبتا ساده است؛ یعنی خودرو یا تصادف میکند، یا نمیکند، و مرگ و جراحت را هم میتوان مشخص کرد. ضمنا شرایطِ نزدیکبهتصادف را هم میتوان تقریبا بهراحتی اندازهگیری کرد. اما درمورد مسائلی که کمتر فنی هستند، مطمئن نیستیم که رویکردِ «کَندوی ذهنیِ» دادهمحورْ همیشه خوب از آب درمیآید.
هوش مصنوعی میتواند تفاوتهای جزئی میان تصاویر مشابه را – که چشم انسان قادر به تشخیص آنها نیست – شناسایی کند. اما ممکن است اشتباهاتِ فاحشی هم بکند که انسان هرگز مرتکب آنها نمیشود.
مثلا رشتۀ پزشکی را درنظر بگیرید که یکی از حوزههای امیدبخشِ هوش مصنوعی است. پزشکی هم علم است و هم هنر: علم و فناوری را با ارزشها ترکیب میکند، ارزشهایی چون: سلامت، روابطِ خوب با بیماران، مراقبتهای انسانمحور، استقلال بیماران، و دیگر ارزشها. در پزشکی، ما فقط بهدنبال چارههای کوتاهمدتِ تکنولوژیک نیستیم.
کاربردِ هوش مصنوعی در تشخیصِ بیماریها، بسیار امیدبخش است، مثلا کاوش در دادههای حجیم برای کمک به تفسیرِ تصاویرِ پزشکی. اینطور که شواهد نشان میدهد، اِیآی میتواند تفاوتهای جزئی میان تصاویر مشابه را – که چشم انسان قادر به تشخیص آنها نیست – شناسایی کند. اما ممکن است اشتباهاتِ فاحشی هم بکند که انسان هرگز مرتکب آنها نمیشود. برای همین هم فعلا بهنظر میرسد بهترین گزینه برای بهبودِ فرایندهای تشخیصی، ترکیبکردنِ هوش مصنوعی با مهارتهای انسانی باشد. اینها، همه خبرهای خوبی هستند.
اما سال ۲۰۱۸، چند تن از اعضای دانشکدۀ پزشکی دانشگاه استنفوردِ کالیفرنیا بهنامهای دانتون چار، نیگام شاه و دیوید مگنوس، در ژورنال پزشکی نیواینگلند سوالاتی جدی دربارۀ کاربردِ هوش مصنوعی در تصمیماتِ تشخیصی و درمانیْ مطرح کردند. پزشکی را بهعنوان یک علم درنظر بگیرید. اگر هوشِ مصنوعیْ «مخزنِ جمعیِ ذهنِ پزشکی» باشد، ما باید در استفاده از آن بسیار محتاط باشیم تا باعث یکنواختشدنِ تفکرِ حرفهای نشده و مانعِ استقلالِ فکری و مانعِ استفاده از تجربۀ بالینیِ شخصی نشود. امروزه این موضوع پذیرفته شده است که درمورد تشخیص و درمانْ اختلافنظرهایی ممکن است وجود داشته باشد. اگر ما کاملا مطمئن باشیم که هوش مصنوعی فقط موجب افزایشِ دقت کار میشود، در اینصورت یکنواختیِ بیشتر در تفکرِ پزشکی ایرادی ندارد. اما این خطر وجود دارد که هوش مصنوعی باعث لغوِ نابهنگامِ برخی تصمیمات شده یا ما را در مسیرهای درمانیِ خاصی هدایت کند. از اینگذشته، مولفانِ مذکور هشدار میدهند که اینگونه یادگیریِ ماشینی حتی ممکن است برای سوقدادنِ بیماران بهسمتِ درمانی مشخص یا برای کسب منافع شخصی مورد استفاده قرار گیرد، تا اینکه برای خیرِ بیماران بهکار برده شود. یعنی بهجای اینکه پزشکیْ دادهها را سوق دهد، ممکن است دادهها پزشکی را سوق دهند.
حالا، پزشکی را بهعنوان یک هنر درنظر بگیرید. باید با بیماران بهعنوان اشخاصی واقعی تعامل کنید که هرکدام زندگی خودشان را دارند. هرچند اِیآی میتواند به ما کمک کند بهتر برای سلامتیمان تصمیمگیری کنیم، اما برای بعضی از بیماران رویهمرفته معالجاتِ با احتمالِ موفقیتِ کمتر، ممکن است گزینۀ مناسبتری باشد. یک رویکردِ دادهمحور بهتنهایی نمیتواند چنین چیزی را به ما نشان دهد. و ما باید مراقب باشیم که مسحورِ قدرتِ فناوری نشویم. چون میدانیم که درعمل، رضایتِ آگاهانه و آزاد بسیار مشکل بهدست میآید، و اینکه نظامِ پزشکی بر تصمیمگیری و رضایتِ بیماران تاثیر میگذارد. اما با افزایشِ مقام و منزلتِ فناوری و قراردادهای حرفهایِ جامع، این خطر وجود دارد که پیوندخوردنِ اقتدارِ حرفۀ پزشکی با قدرتِ فزایندۀ هوش مصنوعی – یعنی «تجویز دارو توسطِ کامپیوتر» – به یک واقعیت بدل شود.
قابلیتِ اِیآی برای دستکاری و پردازشِ حجم عظیمی از دادهها، ممکن است وادارِمان کند که برای تشخیص و حل مسائل، تسلیمِ محض رویکردهای نادرستِ دادهمحور شویم.
پزشکْی حولِ رابطۀ پزشک و بیمار – و درکِ ما از اخلاق پزشکی – میگردد. اما کاربردِ اِیآی میتواند این را تاحدی، یا حتی بهطور بنیادی، تغییر دهد. استفاده از هوش مصنوعی برای بهبودِ مراقبت از بیماران، ازجنبۀ اخلاقیْ هدفی قابلستایش است، ولی ما باید مراقب باشیم که دقیقا چهطور میخواهیم آن را پیادهسازی کنیم.
قابلیتِ اِیآی برای دستکاری و پردازشِ حجم عظیمی از دادهها، ممکن است وادارِمان کند که برای تشخیص و حل مسائل، تسلیمِ محض رویکردهای نادرستِ دادهمحور شویم. این موضوع، حتی در مواردی که نیازمندِ تنوع افکار و رویکردها هستیم، میتواند منجر به یکنواختسازیِ طرزفکرهای مختلف شود. ضمنا میتواند مانعِ دیدهشدنِ عوامل دیگر هم بشود، و بهاینترتیب، نهتنها تفکر ما را دستکاری کرده، بلکه ارزشهای ما را هم تحریف کند.
خیلی وقتها این پرسشهای کلیدی مطرح میشوند که: چهکسی تصمیم میگیرد، و چهطور تصمیم میگیرد؟ چهکسی کار را انجام میدهد، و چهطور آن را انجام میدهد؟ این پرسشها بهخصوص وقتی مطرح میشوند که پای ارزشها درمیان باشد. والدینی که شک داشتند پسرکشان کلوچهها را بهتنهایی درست کرده باشد، حق داشتند. شاید اگر پسرک اول روبات را طراحی میکرد و آن را میساخت، ادعایش اعتبارِ بیشتری داشت. نقشِ این عوامل، درموارد مختلفْ فرق میکند، همانطور که ظرفیتِ جایگزینیِ هوشِ انسان با هوش ماشین متفاوت است.
مثلا، محاکمِ قضایی و هیئتهای منصفه را درنظر بگیرید. همۀ ما میدانیم که دادگاهها و قُضاتْ کامل نیستند: آنها گاهی اطلاعاتِ غلط دریافت میکنند. امروزه الگوریتمها به دادگاههای آمریکا کمک میکنند که دربارۀ صدور احکام و آزادیِ مشروط بهتر تصمیمگیری کنند – مثلا استفاده از دادهها و اطلاعاتِ مربوط به نرخِ تکرارِ جرائم در موضوعات بحثبرانگیز. نگرانیهای جدیای وجود دارد که این موضوع باعث تشدیدِ تبعیضهای موجود علیه برخی گروهها شود. اما تصور کنید ما بهجایی برسیم که دادنِ همۀ شواهدِ موجود به کامپیوتر، باعثِ صدورِ احکامِ دقیقتری نسبت به احکامِ قُضاتِ انسانی شود. در این مورد، کامپیوتر میتواند همۀ دادهها را سریع و (در این نمونۀ خیالی) دقیق و موثر، ترکیب و تحلیل کند. حالا این را با نحوۀ کار دادگاههای واقعی مقایسه کنید، که در آنها افراد حرفهای متضادی دربارۀ یک ماجرای واحد بیان کرده، و چیزهای متفاوتی را بهخاطر میآورند، و حتی بعد از ساعتها فکرکردن، هنوز دیدگاههای مختلفی دربارۀ شواهدِ ماجرا وجود دارد. قدرتِ اِیآی در گردآوری و تحلیل دادهها، میتواند پاسخگوی این کمبودها باشد.
اما این نمونه نشان میدهد که ما فقط بهدنبال انجامِ صحیحِ امور نیستیم. حتی اگر با کمک ماشین به پاسخ دقیقتری برسیم، بازهم دلیلی برای اهمیتدادن به نقشِ متمایزِ انسان در جایگاهِ قضاوت وجود دارد. نگاه کنید به تاریخچۀ مبارزه برای اصلاحاتِ حقوقی و حقوق فردی، و این موضوع را درنظر بگیرید که محاکمهشدن در حضورِ یک دادگاهِ انسانی، به حفظِ حرمتِ فرد هم میکند. شاید روزی بخواهیم این را به هوش مصنوعی واگذار کنیم – ولی شاید هم نخواهیم چنین کنیم.
البته، تمایل به تاثیرپذیری از هیجانات و تبعیضی که آدمها ممکن است به آن دچار شوند، یک نقطهضعفِ بالقوه در صدورِ حُکم است. اما همچنین انگیزهای برای تغییردادنِ قانون هم بوده است. مواردی از «تبرئه توسط هیئت منصفه» وجود دارد که در آنها – هرچند با اِعمالِ دقیقِ قانون، مشخص است متهم گناهکار بوده – بهخاطر تاثیرپذیری از عواطف انسانیِ ناسالم، هیئتهای منصفه قادر به صدور حکمِ محکومیت نبودهاند. هرچند ماشین در ارزیابیِ شواهد خیلی خوب عمل میکند، هنوز خیلی مانده ماشینهایی بسازیم که دارای حسِ دقیقِ قضاوتِ بوده، نگاهبانِ مظلومان باشند، و مبانیِ اخلاقیِ استواری برای بهچالشکشیدنِ نظامِ حقوقی داشته باشند.
شاید در آینده هوش مصنوعی بتواند به قُضات و هیئتهای منصفه کمک کند تا بهتر تصمیم بگیرند، اما این خیلی فرق دارد با آنکه فکر کنیم هوش مصنوعی در تصمیمگیریِ حقوقی بتواند جایگزین انسانها شود.
اما ایدۀ اخلاقیِ کلی همان است که هیئتهای منصفه باید منبعِ مستقلِ قضاوت دربرابر منافعِ شخصیِ قدرتمندان باشند. همانطورکه لُرد دِلوین سال ۲۰۰۴ در مجلس اعیان گفته است: «هیئت منصفه، فقط ابزارِ عدالت یا چرخِ قانون نیست: چراغیست که نشاندهندۀ بقای آزادی است.» و درنظر بگیرید که: ویژگیِ نیرومندِ هوش مصنوعی در پرهیز از تصادفاتِ خودروهای بیراننده – و انبارشِ اطلاعات و ترکیبکردنِ معلومات – در کاربردهای حقوقی، مستقیما اصل اخلاقیِ استقلالِ مَحاکم را تضعیف میکند. این استقلالِ عمل، برای خنثیکردنِ نفوذِ منافعِ شخصی بوده و دلیلِ وجودِ محاکمه با حضور هیئت منصفه است، و نه اینکه صرفا مربوط به پردازش اطلاعاتِ ارائهشده به دادگاه باشد.
منتقدان ممکن است بگویند که نیاز به استقلالِ عمل، ناشی از این بوده که انسانها بسیار غیرقابلاطمینان هستند، یعنی: حرفۀ قضایی نمیتواند بهتنهایی مسئولِ عدالت باشد، اما یک هوش مصنوعیِ دقیقْ میتواند حلکنندۀ مسئله باشد و شاید حتی، بهتدریج، به این ایده عادت کرده و نظام حقوقیمان را به ماشینها محول کنیم.
اما این خیلی آرمانگرایانه است که فکر کنیم میتوانیم از مشکلِ عدمِ توازنِ قوا و منافع شخصی – که دلیل وجود هیئتهای منصفه است – فرار کنیم. برای مسئلۀ دادرسیِ غیرعادلانه، بهجای محولکردنِ امر قضاوت به ماشینها، میتوان جایگزینهای بهتری هم بهکار گرفت، مثلا یک نظامِ فرجامخواهیِ سریع و دسترسپذیر. شاید در آینده هوش مصنوعی بتواند به قُضات و هیئتهای منصفه کمک کند تا بهتر تصمیم بگیرند، اما این خیلی فرق دارد با آنکه فکر کنیم هوش مصنوعی در تصمیمگیریِ حقوقی بتواند جایگزین انسانها شود. حتی در این مرحله، باید دربارۀ تاثیرات هوش مصنوعی بهدقت بیندیشیم، و اینکه آیا دارد ما را به سمتِ رویکردهای تروندسالارنه (تکنوکراتیک) سوق میدهد یا خیر. قانون، بهعنوان یک نظام اجتماعی و سیاسیِ بشری، با مشکلات زیادی توسعه یافته است. اما کاربردِ هوش مصنوعی در متنِ قانون، بهتدریج میتواند این وضع را عوض کند. باید این موضوع را بهدقت بررسی کنیم و تمام عواقبی را که برای عدالت و دموکراسی درپی خواهد داشت، درنظر بگیریم.
جذابیتِ قابلتوجهِ استفاده از اِیآی، فقط بهخاطر سرعت بالای تحلیل دادههاست. کارایی، یک مزیت است، اما عاملِ مزیتْ وابسته به هدفیست که در خدمتِ آن است. ضمنا کاراییْ تنها مزیتِ ممکن نیست. اگر ماشینی بتواند کاری را سریع و موثر انجام دهد، ما احتمالا بیشتر از آنچه شایسته است، از آن استفاده خواهیم کرد. و سرعتِ انجامِ وظایف، ممکن است باعث شود نحوۀ تحقق اهداف توسطِ ماشین را نادیده بگیریم. درنتیجه، برای اینگونه نتایجِ بهدستآمده با راندمانِ بالا، شاید ارزشی بیشازحد قائل شویم.
اتحادیۀ ضد افترا (ADL) با همکاریِ دیلَب (D-Lab) در دانشگاهِ کلیفرنیا، برکلی، درحال توسعۀ شاخصِ نفرتپراکنیِ آنلاین یا OHI است؛ آنها برای شناساییِ سخنانِ نفرتآمیز در اینترنت، از یادگیریِ ماشین استفاده میکنند. این یک نمونۀ جالب است: راهحلِ «فناوری برای فناوری» – چون تکثیرِ آنلاینِ «سخنانِ نفرتآمیز» (ظاهرا) خودش محصولِ فناوریِ رایانهای بوده است. اما مقصر نشاندادنِ مخالفان چیز تازهای نیست.
مدتها پیش از آنکه تیم برنرز لی (مخترعِ وب) خوابِ جهانِ وب را هم ببیند، رنه دکارت فیلسوف فرانسویِ قرن ۱۷، کارهای پیر دو فرما ریاضیدانِ رقیبش را «گُه» خطاب کرد.
هیاهوی هوش مصنوعیْ وادارمان کرده فکر کنیم بعضی چیزها خیلی تازه یا خطرناکند؛ و برای همین تاریخچۀ طولانیِ فحاشی را نمیبینیم. یکی از چیزهایی که ممکن است ما را وادار کند بیشازحد به قابلیتهای اندکِ اِیآی وابسته شویم، دقیقا ناشی از این فرض است که «مشکلِ فناوری = چارۀ فناوری،» و اینکه فناوریِ امروز سرشار از تهدیدهای اخلاقیِ تازه است.
هوش مصنوعی میتواند ظرفیتِ آدمی را در همۀ حوزهها ارتقا دهد. اما همۀ این مزایا را باید با بقیۀ ارزشهایمان تطبیق دهیم. ورنه به آن اجازه دهیم طرزفکر ما را دربارۀ برخی از مهمترین ارزشها و فعالیتهایمان، معین کند.
ایدۀ «سخنان نفرتآمیز» فینفسه بحثبرانگیز است. برخی میگویند که تلاش برای حذفِ برخی کاربردهای زبان، خواه توسط قانون یا توسط سرویسهای آنلاین، برای تحققِ اهدافی مثل پاکسازیِ تبعیض لازم است. دیگران نگرانند که این تهدیدی برای آزادی بیان، و شکلی از سانسور باشد. نگرانیهایی وجود دارد مبنیبر اینکه، آنچه را عدهای سخنانِ نفرتآمیز میدانند، برای برخی دیگر فقط شوخیِ سادهای بوده، و دستهبندیِ چیزی بهعنوانِ «سخنان نفرتآمیز» بدون درنظرگرفتنِ متنِ آن، کار بسیار سختی است. علاوهبراین، این نگرانی هم وجود دارد که با توجه به حجم عظیم مطالبِ پُستشده در دنیای وب، نظارت بر «سخنان نفرتآمیز» تلاشی پراکنده و ناهمگون باشد، و برخی هم میترسند که اینکار باعث هدفگیریِ اشتباه برخی گروهها یا افراد شود.
اگر بتوانیم شناساییِ نفرتپراکنیِ آنلاین را خودکارسازی کنیم، این میتواند به دستهبندی و یکدستسازیِ کار کمک کند. شاخصِ نفرتپراکنیِ آنلاین (OHI) با پردازشِ سریعترِ دادهها، و اعمالِ درستِ یک سیاستِ نظارتیِ بدوِ تبعیض، میتواند به تحقق این اهداف کمک کند. (البته، این بستگی دارد که چهطور آن را برنامهنویسی کنیم. اگر برنامهنویسیِ آنْ آمیخته به تبعیض باشد، آنوقت با راندمانِ بالایی تبعیض نشان خواهد داد.)
حالا مسئله اینجاست. ازطرفی، ایدۀ شناسایی و دستهبندی و پاکسازیِ «سخنانِ نفرتآمیز» توسطِ هوش مصنوعی – با سرعت و انسجامی که از انسانها برنمیآید – ما را بهوجد آورده، و ازطرف دیگر، این موضوع که دنیایِ آنلاین دارد بسیاری از ما را به غولهای نفرتزدۀ بیمسئولیت بدل میکند، ما را ترسانده است؛ درنتیجه ممکن است این فناوری را با چنان اشتیاقی بهخدمت بگیریم که مسائلِ دیگرِ مرتبط با سخنانِ نفرتآمیز قدری نادیده گرفته شود. خودِ این موضوع ممکن است بحثی را که بهطورخلاصه به آن میگویند بحثِ «نفرتپراکنی دربرابر آزادی بیان،» درجهتِ خاصی هدایت کند. بهعبارتی، میتواند به شکلگیریِ ارزشهای ما کمک کند. ترسِ اینکه سخنانِ نفرتآمیز باعث اخراجِ فرد از یک شبکۀ اجتماعی شود، میتواند بهراحتی روشهای ارتباطِ آنلاینِ مردم را تغییر دهد. برخی جنبههای این واقعیت ممکن است خوب باشد، اما برخی از وجوهِ آن شاید نه.
مزایای هوش مصنوعی عبارتند از قابلیتِ اشتراکگذاریِ دادهها برای دسترسی جهانی؛ ظرفیتِ کمک به پاکسازیِ تبعیضهای انسانی؛ همچنین سرعت و کاراییِ عملکرد. هوش مصنوعی میتواند ظرفیتِ آدمی را در همۀ حوزهها ارتقا دهد. اما همۀ این مزایا را باید با بقیۀ ارزشهایمان تطبیق دهیم. اگر اینکار را نکنیم، ممکن است مسحورِ قدرتِ هوش مصنوعی شده و به آن اجازه دهیم طرزفکر ما را دربارۀ برخی از مهمترین ارزشها و فعالیتهایمان، معین کند.
ـــــــــــــــــ
منبع: aeon