ادبیات، فلسفه، سیاست

deep fake

جعلِ عمیق و عواقب کم‌سوادی ما

دان فالیس | استاد فلسفه و علوم کامپیوتر در دانشگاه نورث ایسترن

ویدیوی آتش‌زدنِ قرآن به دست ژنرالی آمریکایی در افغانستان، حتی اگر جعلی باشد، به‌راحتی می‌تواند آشوبی عظیم به پا کند. اما با تکنولوژیِ جعل عمیق، ما همواره در معرض چنین محتوای خطرناکی هستیم…

فرض کنید ویدیویی را تماشا می‌کنید که در آن، ژنرالی آمریکایی در افغانستان دارد قرآن آتش می‌زند. این ویدیو حتی اگر ساختگی باشد، در صورت انتشار گسترده، به‌راحتی می‌تواند بلوایی بزرگ به پا کند. چرا؟ واقعیت آن است که شواهدِ بصری به استاندارد طلاییِ کشفِ حقیقت بدل شده‌اند. فیلم‌های خبری یا مستند، گرچه به لحاظ فنیْ چیزهایی ساختگی یا ساخته‌شده هستند، می‌توانند تجربهٔ واقعیِ یک شاهد عینی را به ما القاء کنند. ظهور تکنولوژیِ جعل عمیق یا دیپ‌فِیک، ما را حتی از این هم فراتر می‌برد؛ و اعتماد یا بی‌اعتمادی ما نسبت به هرگونه مدارک بصری، ممکن است عواقبی وخیم داشته باشد.

***

مردم برای بقا و پیشرفت، همواره باید سواد خود را دربارهٔ جهان اطراف‌شان تازه کنند. و چون ما وقت و انرژی محدودی برای این کار داریم، خیلی خوب است که منابعی برای اطلاعات و اخبار داشته باشیم که بتوانیم به آن‌ها اعتماد کنیم. یکی از این منابع، چشم‌های ماست: مشاهدهٔ مستقیم. ولی ما نمی‌توانیم همیشه در زمان و مکانِ دلخواه باشیم و رویدادها را با چشمان خودمان ببینیم. در چنین مواردی، اغلب تماشای محتوای تصویری مثلا از طریق تلویزیون یا موبایل، جایگزینی غیرمستقیم فراهم می‌کند. به این ترتیب، چیزهایی را که حتی در فواصلی دور رخ می‌دهد، با چشمان خودمان می‌بینیم.

درعین‌حال ما بر اساس اطلاعاتی که از طریق تصاویر کسب می‌کنیم، تصمیمات مهمی می‌گیریم. ویدیوهای ضبط‌شده با موبایل باعث شکست برخی سیاسیون در انتخابات یا اخراج افسران پلیس (و حتی محاکمه آن‌ها) شده‌اند، و حتی اخیرا اعتراضاتی گسترده را در سراسر جهان رقم زده‌اند. این‌ها تاثیرات مهمی نیستند؟ ما کلا مدارک ویدیویی را راحت‌تر از منابع و اطلاعات دیگر (مثلا شهادتِ شفاهی) قبول می‌کنیم. برای همین وقتی به توافق جمعی دربارهٔ موضوعی نیاز باشد، ویدیوها رسانه‌ای بسیار مفیدند.

اما ارزش ویدیوها به عنوان منبع اطلاعات، در معرض تهدید است؛ تهدیدی موسوم به جعلِ عمیق یا دیپ‌فِیک. جعلِ عمیق درواقع تکنولوژیِ خلقِ ویدیو از راه «یادگیریِ ماشینی» است. دیپ‌فیک‌ها می‌توانند افراد را در حال گفتنِ چیزها یا کردنِ کارهایی نشان دهند که واقعیت ندارد. «پورنِ جعلی» نمونه‌ای شناخته‌شده از این کاربردهاست که در آن، تصویر چهرهٔ افراد مشهور به‌شکلی کاملا باورپذیر در ویدیوهای پورنوگرافیک (با محتوای جنسی) قرار می‌گیرد. اما جعل عمیق را می‌توان برای خلق همه نوع ویدیویی استفاده کرد، طوری که تشخیص آن از ویدیوهای واقعی تقریبا ناممکن باشد.

برخی نگران این هستند که ما به سمت «قیامتِ اطلاعاتی» برویم: یعنی جایی که نشود راست و دروغ را از هم تشخیص داد. فیلسوفانی چون دبورا جانسون، لوچانو فلوریدی، رجینا رینی، و مایکل لابوسیِر هم هشدارهای مشابهی داده‌اند. البته ویدیوهای جعلیِ واقع‌گرایانه درواقع پدیدهٔ جدیدی نیستند. مثلا در جریان جنگ جهانی دوم، نازی‌ها فیلم‌های پروپاگاندایی تولید می‌کردند که نشان می‌داد در حکومتِ نازی چه‌قدر خوب با یهودیان رفتار می‌شود. برای همین، شاید این حس باشد که دیپ‌فیک تهدیدی تازه علیه سوادِ ما نیست. اما با کمک تکنولوژی جعل عمیق، به اندازهٔ کافی تصاویر دروغین منتشر شده است که گاهی جذب اطلاعات صحیح از طریق محتوای تصویری را برای ما مشکل کرده باشد. ما داریم به نقطه‌ای می‌رسیم که شاید تشخیص واقعیت برای‌مان ناممکن شود و اصل اعتماد و اعتبار زیر سوال برود.

افراد مشهور از مدت‌ها پیش هدف جعل عمیق بوده‌اند.

جعلِ عمیق از چند طریقْ بشر و سوادِ بشر را تهدید می‌کند. اول از همه، نشر دروغ ممکن است پیامدهای وخیمی به بار آورد. مثالِ اول درباره ویدیوی آتش‌زدنِ قرآن به دست ژنرال آمریکایی در افغانستان، فقط یک نمونه است. در دنیایی که مستعد خشونت است، چنین محتوایی می‌تواند منجر به آشوبی عظیم شود. دوم آن‌که دیپ‌فیک می‌تواند مانع جذب حقیقت شود. اگر ویدیوهای دروغین همه‌جاگیر شوند، مردم شاید دیگر ویدیوهای واقعی را هم باور نکنند ‌ــ‌ حتی اگر از منابعِ موثق باشد. و درواقع هدف اصلیِ فریبِ رسانه‌ای هم این است که بذر تردید بپاشد و اعتماد مردم را نسبت به منابع موثق از بین ببرد.

اما جعل عمیق منجر به آسیبِ شناختی هم می‌شود. چون ممکن است باعث شود که رسانه‌هایی مثل ویدیو ماهیتا به‌عنوان مدرکی نامعتبر برای رویدادهای واقعی در میان مردم جا بیفتند. گرچه دیپ‌فیک‌ها دست‌کم در فضای سیاست خیلی شایع نیستند، اما احتمال جعلی‌بودنِ ویدیوها را در آینده بیشتر کرده‌اند؛ به‌هرحال این تکنولوژی در حالِ ارتقاست و قاعدتا رواج بیشتری خواهد یافت.

اگر رسانه‌های بصری، اعتبار خود را از دست بدهند و اطلاعات صحیحِ کمتری به ما برسد، سوادِ ما از دنیای خودمان ممکن است محدود شود. دیوید هیوم فیلسوف و مورخ اسکاتلندی توصیه کرد که باورمان را بر شواهد استوار کنیم، اما فضایی که امروز در آن هستیم، به لحاظ شناختی آلوده است، و باورهای درست محدودند. اگر تهدیدِ تکنولوژی‌هایی چون جعل عمیق را به‌خوبی درک کنیم، آن‌وقت می‌توانیم کاری برای این معضلِ احتمالی بکنیم.

اولین کاری که می‌توان کرد این است که محیط اطلاعاتی/معلوماتیِ خودمان را قدری ایمن‌تر کنیم؛ مثلا وضع مقرراتی که تولید ویدیوهای دروغ‌پراکن را محدود کند. در برخی موارد می‌توان با تحریم‌های غیررسمی (اعتراض همگانی) با انتشار این ویدیوها مقابله کرد؛ مثل برخی برنامه‌های موبایلی که به‌خاطر اعتراض همگانی، از روی سایت‌های اینترنتی برداشته شد.

یک راه دیگر این است که ریسکِ شناختی را در محیطِ اطلاعاتی/معلوماتی کم کنیم؛ مثل وقتی که عامدانه خودمان یا به‌طور جمعی تلاش می‌کنیم دیپ‌فیک‌ها را شناسایی و معرفی کنیم. اگر آدم‌های عادی و غیرحرفه‌ای نتوانند دیپ‌فیک‌ها را شناسایی کنند، افراد حرفه‌ای و کارشناسان دیجیتال می‌توانند مردم عادی را آگاه کنند. عده‌ای هم می‌توانند چنین کارشناسانی را به‌عنوان منابع موثق شناسایی و معرفی کنند.

و سرانجام «جبرِ هنجاری». می‌توانیم محیط اطلاعاتی خودمان را متعهد به رعایت هنجارها کنیم. تصاویری که در خبرهای شامگاهی می‌بینیم، با یک ویدیوی پَرت در اینترنت قابل مقایسه نیست، چون در معرضِ دیدِ میلیون‌ها بیننده قرار دارد، و اگر دروغی را در آن کشف کنیم، خسارتی بزرگ به منبع خبر خواهد خورد. پس حتی بدون داشتن قوانین و مقرراتی علیه دروغ، برنامه‌های خبریِ پربیننده تحت جبرِ هنجاریِ شدیدی قرار خواهند داشت، اگر ما از منابعِ خبریِ خودمانْ نشر حقیقت را مطالبه کنیم.

 

کتابستان

چار دختر زردشت

منیژه باختری

دموکراسی انجمنی

مهدی جامی

تاملاتی بر هیتلر

زِبستییان هفنر

دوسیه افغانستان

شاهزاده ترکی الفیصل آل سعود

نیم‌قرن مبارزه و سیاست

سمیه رامش