pc

آزار سایبری از طریق پورنوگرافی جعلی؛ شکل مدرن زن‌ستیزی

آماندا مارگارت ناروالی، جاشوا آگوست اسکوربرگ، مایا گولدنبرگ

جامعه سابقهٔ بدی در رسیدگی به آسیب‌های تحمیل‌شده بر زنان و دختران دارد. دختران برای این‌که قربانیِ اشکالِ جدیدِ مزاحمت سایبری نشوند، شاید تصمیم بگیرند ساکت بمانند و دیده نشوند…

اخیرا بی.بی.سی خبری دربارهٔ شکلی تازه و نگران‌کننده از مزاحمت سایبری منتشر کرد که در یکی از مدارس اسپانیا در شهر آلمندرالِخو رخ داد و طی آن گروهی از دختران توسط همکلاسی‌های پسر مورد آزار قرار گرفتند.

در این ماجرا پسران از یک اپلیکیشن مبتنی بر هوش مصنوعی برای تولید تصاویر پورنوگرافیک موسوم به جعل عمیق یا دیپ‌فیک (deepfake) از دختران همکلاسی و انتشار آن‌ها در شبکه‌های اجتماعی استفاده شده بود.

مدل‌های پیشرفتهٔ هوش مصنوعی می‌تواند با استفاده از سه تا پنج عکس از چهرهٔ فرد، تصاویر کاملا جدیدی بسازد ‌ــ‌ بدون آن‌که برای تولیدشان به دانش فنی نیاز باشد. و در حالی که تا چند سال پیش راحت‌تر می‌شد تصاویر دیپ‌فیک را شناسایی کرد، حالا آماتورها به‌راحتی می‌توانند تصاویری قابل رقابت با جلوه‌های ویژهٔ پرهزینهٔ کامپیوتریِ تولیدِ حرفه‌ای‌ها را بسازند.

در این مورد، آسیب‌ها می‌تواند در زیرمجموعهٔ نقضِ رضایت و حریم خصوصی باشد، اما محققانی که در زمینهٔ هوش مصنوعی و اخلاقیات فعالیت می‌کنند، مشکلاتی عمیق‌تر را در این ماجرا می‌بینند.

پورن جعلی: شکلی از مزاحمت سایبری

در ماجرای آلمندرالخو دست‌کم بیش از ۲۰ دخترِ بین ۱۱ تا ۱۷ ساله قربانی تصاویرِ پورن جعلی شدند. البته این ماجرا جزوِ روندِ بزرگ‌ترِ استفاده از این تکنولوژی است. مطابق یک تحقیق در سال ۲۰۱۹ بالغ بر ۹۶ درصد تمام ویدیوهای دیپ‌فیکِ آنلاینْ پورنوگرافیک بودند که این امر بحث‌های زیادی را در مورد این‌که چه‌طور از این تکنولوژی برای بی‌آبرو کردنِ زنان استفاده می‌شود برانگیخت.

هرچند به ریسک‌های سیاسیِ جعل عمیق زیاد در خبرها پرداخته شده است، ولی به‌جاست که آسیب‌های شخصیِ عمیق‌تر آن را هم بررسی کرد.

به عقیدهٔ برخی حقوق‌دانان، جامعه سابقهٔ بدی در رسیدگی به آسیب‌های تحمیل‌شده بر زنان و دختران دارد. دختران برای این‌که قربانیِ این شکلِ جدید و بی‌رحمانه از مزاحمت سایبری نشوند، شاید تصمیم بگیرند ساکت بمانند و دیده نشوند. به نظر می‌رسد این تکنولوژیْ موانعی تازه برای دانش‌آموزانْ علی‌الخصوص دختران ایجاد می‌کند که آن‌ها را وادار می‌کند تا از ترسِ جلبِ توجه فرصت‌های زندگی را از دست بدهند.

ابزاری برای زن‌آزاری

کیت مان فیلسوفهٔ استرالیایی چارچوبی مفید دربارهٔ نحوهٔ استفاده از تکنولوژی جعل عمیق به عنوان ابزاری برای زن‌ستیزی ارائه کرده است. از نظرِ مان، زن‌آزاریْ بازوی اجراییِ قانون در نظام مردسالار است که کارکرد کلی‌اش نظارت و اجرای ایدئولوژی حاکم این نظام است.

یعنی زن‌آزاریْ زنان و دختران را کنترل می‌کند و آن‌ها را از تقبل نقش‌هایی که سنتاً در دست مردان بوده منصرف می‌کند. این کنترل می‌تواند از طرف دیگران اعمال شود ولی می‌تواند خودخواسته هم باشد.

همان‌طور که مان می‌گوید زنانی که در برابر هنجارهای جنسیتی و توقعات محیطْ مقاومت کنند مجازات می‌شوند. کنترلِ بیرونی در زن‌ستیزی شامل تادیبِ زنان از طریق انواع و اقسام مجازات برای مقاومت یا انحراف است.

مثلا زنان از فرصتِ شغل داشتن محروم می‌شوند یا هدف آزار جنسی یا حملهٔ فیزیکی قرار می‌گیرند. و حالا مردسالاری سلاح تازه‌ای به دست آورده است و زنان را با استفاده از تکنولوژی جعل عمیق تنبیه می‌کند.

وقتی به مفهومِ استحقاق مردانه که مان ارائه می‌کند نگاه کنیم، می‌توان سناریوهایی از رفتارهای کنترل‌گرانه را پیش‌بینی کرد: مثل وقتی که به دانشجویانِ دختر امکان دسترسی به سِمت‌هایی داده شود که دانشجویان پسر آن‌ها را حق خودشان می‌دانند چون آن موقعیت‌ها سنتاً در دست مردان بوده است.

فقط یک شوخی؟

تکنولوژی جعل عمیق سلاحی بسیار سهل‌الوصول برای استفاده در این موارد است که می‌تواند آسیب زیادی هم وارد کند. مسئلهٔ آبروریزی و تهدید جسمیْ چیزهای بدیهی است. اما زن‌ستیزیِ فرهنگی هم با ناچیزشماریِ این مسائلْ آسیبِ اضافی وارد می‌کند: مردِ مزاحم می‌تواند بگوید که این فقط یک شوخی است، و این‌که طرف [دخترِ قربانی] خیلی موضوع را جدی گرفته و نباید ناراحت شود چون عکس‌ها واقعی نیست.

درعین‌حال از طریق دیپ‌فیک و دیگر تکنولوژی‌های دستکاری چهره، می‌توان کنترل خودخواسته را تقویت کرد. در واقع صرف دانستنِ این‌که این شکل از مزاحمت سایبری در دسترس عموم قرار دارد، می‌تواند منجر به خودسانسوری شود.

دانش‌آموزانی که در سطح رهبری بیشتر دیده می‌شوند، بیشتر احتمال دارد قربانی جعل عمیق شوند؛ این دانش‌آموزان بیشتر بین بقیه شناخته‌شده هستند و نقشِ عمومی‌شان زیر ذره‌بین است.

آیا به آن عادت می‌کنیم؟

شاید این نوع دیپ‌فیک‌ها بیشتر رواج پیدا کند و مردم کمتر از دیدن این گونه تصاویر و ویدیوها متعجب شوند، و نتیجتا این چیزها کمتر شرم‌آور به نظر آید و قربانی را مثل سابق خجالت‌زده نکند. اما مردم حتی وقتی می‌دانند که محتوایی دروغین است، تداعیِ ذهنی خلق می‌کنند. این تداعی‌ها حتی اگر به باوری غالب تبدیل نشود، می‌تواند جزوِ آسیب‌های دیپ‌فیک باشد.

مثلا وقتی دانش‌آموزانْ دیپ‌فیکِ همکلاسی‌های خود را می‌سازند، این تجربه می‌تواند ذهنیت‌شان را نسبت به افرادِ هدفْ تغییر دهد و در زندگیِ واقعیْ موجبِ بدرفتاری و آزار و بی‌احترامی نسبت به آن دختران شود.

مثلا پسرها ممکن است هم‌سالانِ دختر خود را کمتر شایسته و مستحق فرصت‌ها ببینند. استفاده از این تکنولوژی در میان هم‌سالان در مدارس، با تولید یک فضای آموزشیِ جنسیت‌زده، می‌تواند به اعتمادبه‌نفس دختران لطمه بزند.

ابزاری تازه برای کلیشه‌سازی

بر اساس تحلیلِ مان، حتی اگر دختری خودش قربانی دیپ‌فیک نشده باشد، جعل عمیق می‌تواند روی او تاثیر بگذارد. مثلا زنان در قالب انواعِ خاصی از زن معرفی یا نشان داده می‌شوند: یعنی برخی زنان را به عنوانِ هدف انتخاب می‌کنند و به عنوانِ نمایندهٔ جمعیتِ بزرگ‌تری از زنان جلوه می‌دهند. وقتی این تداعی‌های ذهنی از یک زنِ به‌خصوص شکل گرفت، به عنوان ابزاری برای زن‌آزاری علیه بقیهٔ زنان هم به کار می‌رود و موجب تقویت زن‌ستیزی در کلیّت می‌شود.

تمسخر، طرد، و شرمسارسازی زنان

به عقیدهٔ مان، زن‌ستیزی صرفا در قالب خشونت ظاهر نمی‌شود، بلکه از طریق بدنام‌سازی، اهریمن‌انگاری، تحقیر، آبروریزی، تمسخر، کنایه، طرد و شرمسارسازی، ذهنیت جامعه نسبت به زنان بیشتر تخریب می‌شود.

در مورد دیپ‌فیک‌ها زن‌ستیزی در قالبِ خشونتِ غیرفیزیکی ظاهر می‌شود. هرچند در ماجرای آلمندرالخو، یکی از والدین به درستی عکس‌های برهنهٔ مصنوعی از دختران که از سوی همکلاسی‌های آن‌ها توزیع شد را تحت عنوان خشونت طبقه‌بندی کرد.

بعید است این تکنولوژی از میدان به در برود. پس درک نحوهٔ استفاده از دیپ‌فیک‌ها به عنوان ابزاری برای زن‌ستیزی، برای درک آسیب‌های احتمالی آن و این‌که این تکنولوژی برای والدین، فرزندان، جوانان و مدارسی که با آزار سایبری درگیرند چه معنایی خواهد داشت، گامی مهم است.

کتابستان

شبانه

نگار خلیلی

شهسوار سویدنی

لئو پروتز

چار دختر زردشت

منیژه باختری

دموکراسی انجمنی

مهدی جامی

تاملاتی بر هیتلر

زِبستییان هفنر