اخیرا بی.بی.سی خبری دربارهٔ شکلی تازه و نگرانکننده از مزاحمت سایبری منتشر کرد که در یکی از مدارس اسپانیا در شهر آلمندرالِخو رخ داد و طی آن گروهی از دختران توسط همکلاسیهای پسر مورد آزار قرار گرفتند.
در این ماجرا پسران از یک اپلیکیشن مبتنی بر هوش مصنوعی برای تولید تصاویر پورنوگرافیک موسوم به جعل عمیق یا دیپفیک (deepfake) از دختران همکلاسی و انتشار آنها در شبکههای اجتماعی استفاده شده بود.
مدلهای پیشرفتهٔ هوش مصنوعی میتواند با استفاده از سه تا پنج عکس از چهرهٔ فرد، تصاویر کاملا جدیدی بسازد ــ بدون آنکه برای تولیدشان به دانش فنی نیاز باشد. و در حالی که تا چند سال پیش راحتتر میشد تصاویر دیپفیک را شناسایی کرد، حالا آماتورها بهراحتی میتوانند تصاویری قابل رقابت با جلوههای ویژهٔ پرهزینهٔ کامپیوتریِ تولیدِ حرفهایها را بسازند.
در این مورد، آسیبها میتواند در زیرمجموعهٔ نقضِ رضایت و حریم خصوصی باشد، اما محققانی که در زمینهٔ هوش مصنوعی و اخلاقیات فعالیت میکنند، مشکلاتی عمیقتر را در این ماجرا میبینند.
پورن جعلی: شکلی از مزاحمت سایبری
در ماجرای آلمندرالخو دستکم بیش از ۲۰ دخترِ بین ۱۱ تا ۱۷ ساله قربانی تصاویرِ پورن جعلی شدند. البته این ماجرا جزوِ روندِ بزرگترِ استفاده از این تکنولوژی است. مطابق یک تحقیق در سال ۲۰۱۹ بالغ بر ۹۶ درصد تمام ویدیوهای دیپفیکِ آنلاینْ پورنوگرافیک بودند که این امر بحثهای زیادی را در مورد اینکه چهطور از این تکنولوژی برای بیآبرو کردنِ زنان استفاده میشود برانگیخت.
هرچند به ریسکهای سیاسیِ جعل عمیق زیاد در خبرها پرداخته شده است، ولی بهجاست که آسیبهای شخصیِ عمیقتر آن را هم بررسی کرد.
به عقیدهٔ برخی حقوقدانان، جامعه سابقهٔ بدی در رسیدگی به آسیبهای تحمیلشده بر زنان و دختران دارد. دختران برای اینکه قربانیِ این شکلِ جدید و بیرحمانه از مزاحمت سایبری نشوند، شاید تصمیم بگیرند ساکت بمانند و دیده نشوند. به نظر میرسد این تکنولوژیْ موانعی تازه برای دانشآموزانْ علیالخصوص دختران ایجاد میکند که آنها را وادار میکند تا از ترسِ جلبِ توجه فرصتهای زندگی را از دست بدهند.
ابزاری برای زنآزاری
کیت مان فیلسوفهٔ استرالیایی چارچوبی مفید دربارهٔ نحوهٔ استفاده از تکنولوژی جعل عمیق به عنوان ابزاری برای زنستیزی ارائه کرده است. از نظرِ مان، زنآزاریْ بازوی اجراییِ قانون در نظام مردسالار است که کارکرد کلیاش نظارت و اجرای ایدئولوژی حاکم این نظام است.
یعنی زنآزاریْ زنان و دختران را کنترل میکند و آنها را از تقبل نقشهایی که سنتاً در دست مردان بوده منصرف میکند. این کنترل میتواند از طرف دیگران اعمال شود ولی میتواند خودخواسته هم باشد.
همانطور که مان میگوید زنانی که در برابر هنجارهای جنسیتی و توقعات محیطْ مقاومت کنند مجازات میشوند. کنترلِ بیرونی در زنستیزی شامل تادیبِ زنان از طریق انواع و اقسام مجازات برای مقاومت یا انحراف است.
مثلا زنان از فرصتِ شغل داشتن محروم میشوند یا هدف آزار جنسی یا حملهٔ فیزیکی قرار میگیرند. و حالا مردسالاری سلاح تازهای به دست آورده است و زنان را با استفاده از تکنولوژی جعل عمیق تنبیه میکند.
وقتی به مفهومِ استحقاق مردانه که مان ارائه میکند نگاه کنیم، میتوان سناریوهایی از رفتارهای کنترلگرانه را پیشبینی کرد: مثل وقتی که به دانشجویانِ دختر امکان دسترسی به سِمتهایی داده شود که دانشجویان پسر آنها را حق خودشان میدانند چون آن موقعیتها سنتاً در دست مردان بوده است.
فقط یک شوخی؟
تکنولوژی جعل عمیق سلاحی بسیار سهلالوصول برای استفاده در این موارد است که میتواند آسیب زیادی هم وارد کند. مسئلهٔ آبروریزی و تهدید جسمیْ چیزهای بدیهی است. اما زنستیزیِ فرهنگی هم با ناچیزشماریِ این مسائلْ آسیبِ اضافی وارد میکند: مردِ مزاحم میتواند بگوید که این فقط یک شوخی است، و اینکه طرف [دخترِ قربانی] خیلی موضوع را جدی گرفته و نباید ناراحت شود چون عکسها واقعی نیست.
درعینحال از طریق دیپفیک و دیگر تکنولوژیهای دستکاری چهره، میتوان کنترل خودخواسته را تقویت کرد. در واقع صرف دانستنِ اینکه این شکل از مزاحمت سایبری در دسترس عموم قرار دارد، میتواند منجر به خودسانسوری شود.
دانشآموزانی که در سطح رهبری بیشتر دیده میشوند، بیشتر احتمال دارد قربانی جعل عمیق شوند؛ این دانشآموزان بیشتر بین بقیه شناختهشده هستند و نقشِ عمومیشان زیر ذرهبین است.
آیا به آن عادت میکنیم؟
شاید این نوع دیپفیکها بیشتر رواج پیدا کند و مردم کمتر از دیدن این گونه تصاویر و ویدیوها متعجب شوند، و نتیجتا این چیزها کمتر شرمآور به نظر آید و قربانی را مثل سابق خجالتزده نکند. اما مردم حتی وقتی میدانند که محتوایی دروغین است، تداعیِ ذهنی خلق میکنند. این تداعیها حتی اگر به باوری غالب تبدیل نشود، میتواند جزوِ آسیبهای دیپفیک باشد.
مثلا وقتی دانشآموزانْ دیپفیکِ همکلاسیهای خود را میسازند، این تجربه میتواند ذهنیتشان را نسبت به افرادِ هدفْ تغییر دهد و در زندگیِ واقعیْ موجبِ بدرفتاری و آزار و بیاحترامی نسبت به آن دختران شود.
مثلا پسرها ممکن است همسالانِ دختر خود را کمتر شایسته و مستحق فرصتها ببینند. استفاده از این تکنولوژی در میان همسالان در مدارس، با تولید یک فضای آموزشیِ جنسیتزده، میتواند به اعتمادبهنفس دختران لطمه بزند.
ابزاری تازه برای کلیشهسازی
بر اساس تحلیلِ مان، حتی اگر دختری خودش قربانی دیپفیک نشده باشد، جعل عمیق میتواند روی او تاثیر بگذارد. مثلا زنان در قالب انواعِ خاصی از زن معرفی یا نشان داده میشوند: یعنی برخی زنان را به عنوانِ هدف انتخاب میکنند و به عنوانِ نمایندهٔ جمعیتِ بزرگتری از زنان جلوه میدهند. وقتی این تداعیهای ذهنی از یک زنِ بهخصوص شکل گرفت، به عنوان ابزاری برای زنآزاری علیه بقیهٔ زنان هم به کار میرود و موجب تقویت زنستیزی در کلیّت میشود.
تمسخر، طرد، و شرمسارسازی زنان
به عقیدهٔ مان، زنستیزی صرفا در قالب خشونت ظاهر نمیشود، بلکه از طریق بدنامسازی، اهریمنانگاری، تحقیر، آبروریزی، تمسخر، کنایه، طرد و شرمسارسازی، ذهنیت جامعه نسبت به زنان بیشتر تخریب میشود.
در مورد دیپفیکها زنستیزی در قالبِ خشونتِ غیرفیزیکی ظاهر میشود. هرچند در ماجرای آلمندرالخو، یکی از والدین به درستی عکسهای برهنهٔ مصنوعی از دختران که از سوی همکلاسیهای آنها توزیع شد را تحت عنوان خشونت طبقهبندی کرد.
بعید است این تکنولوژی از میدان به در برود. پس درک نحوهٔ استفاده از دیپفیکها به عنوان ابزاری برای زنستیزی، برای درک آسیبهای احتمالی آن و اینکه این تکنولوژی برای والدین، فرزندان، جوانان و مدارسی که با آزار سایبری درگیرند چه معنایی خواهد داشت، گامی مهم است.