چه کسی پشت این صنعت کثیف است؟
زنانی که قربانی پورنوگرافی جعلی شدند
فناوری دیپفیک، که تصاویر و ویدئوهای جعلی بسیار واقعی تولید میکند به ابزاری برای تحقیر و آزار زنان تبدیل شده است. گزارش تازه اشپیگل به بررسی افرادی میپردازد که در پشت پرده این صنعت غیرقانونی و غیراخلاقی فعالیت میکنند و تأثیرات مخرب آن بر قربانیان را نشان میدهد.

سارا (نام مستعار)، زنی ۳۲ ساله، یک روز صبح با پیامی نگرانکننده از یک دوست مواجه شد: «این تو هستی؟» همراه پیام، لینکی به یک وبسایت پورنوگرافی ارسال شده بود که ویدئویی از سارا را نشان میداد که در حال انجام اعمال جنسی بود. اما سارا هرگز در چنین ویدئویی حضور نداشت.
این یک دیپفیک بود، ویدئویی که با استفاده از هوش مصنوعی (AI) ساخته شده و چهره او را بهطور واقعگرایانهای روی بدن بازیگر دیگری قرار داده بود. سارا در مصاحبه با اشپیگل گفت: «احساس کردم روحم شکسته است. نمیتوانستم باور کنم که کسی این کار را با من کرده است.» او تنها یکی از هزاران زنی است که قربانی پورنوگرافی دیپفیک شدهاند، صنعتی که به سرعت در حال رشد است و عمدتاً توسط مردانی هدایت میشود که از فناوری برای بهرهکشی و تحقیر زنان استفاده میکنند.
فناوری پشت دیپفیک
دیپفیکها با استفاده از الگوریتمهای یادگیری عمیق، نوعی از هوش مصنوعی، ساخته میشوند که میتوانند تصاویر یا ویدئوهای جعلی تولید کنند که تشخیص آنها از واقعیت دشوار است. این فناوری در ابتدا برای سرگرمیهای بیضرر، مانند جایگزینی چهره بازیگران در فیلمها، توسعه یافت. اما به سرعت توسط افرادی مورد سوءاستفاده قرار گرفت که محتوای پورنوگرافیک تولید میکنند. این فناوری به کاربران اجازه میدهد تا با چند کلیک، چهره هر فردی را از روی عکسهای موجود در شبکههای اجتماعی یا منابع دیگر روی بدن بازیگران پورنوگرافیک قرار دهند.
مردان پشت پرده
تحقیقات اشپیگل نشان میدهد که اکثریت قریب به اتفاق تولیدکنندگان پورنوگرافی دیپفیک مردان هستند، اغلب افرادی با دانش فنی که در انجمنهای آنلاین مانند ردیت یا دیسکورد فعالیت میکنند. این گروهها فضاهایی را ایجاد کردهاند که در آنها کاربران، که اغلب خود را «علاقهمندان به فناوری» مینامند، تکنیکهای ساخت دیپفیک را به اشتراک میگذارند و محتوای غیرقانونی را توزیع میکنند. یکی از این افراد، که با نام مستعار «DeepMaster» فعالیت میکند، در مصاحبهای ناشناس با اشپیگل ادعا کرد که این کار را «برای سرگرمی» انجام میدهد و معتقد است که «هیچ آسیبی به کسی نمیرسد.» او گفت: «این فقط یک بازی با فناوری است. مثل نقاشی دیجیتال.» اما برای قربانیان، این «بازی» تبعات ویرانگری دارد.
تأثیرات بر قربانیان
قربانیان دیپفیکهای پورنوگرافیک اغلب با آسیبهای روانی شدید، از جمله اضطراب، افسردگی و از دست دادن اعتماد به نفس مواجه میشوند. سارا میگوید که پس از انتشار ویدئوی دیپفیک، از ترس قضاوت دیگران از شغلش کنارهگیری کرد و ماهها از خانه خارج نشد. بسیاری از قربانیان، بهویژه زنان، گزارش دادهاند که احساس میکنند حریم خصوصی و کرامتشان نقض شده است. در برخی موارد، این ویدئوها برای اخاذی، تهدید یا انتقامجویی استفاده شدهاند. طبق گزارش اشپیگل، بیش از ۸۰ درصد قربانیان پورنوگرافی دیپفیک زنان هستند و بسیاری از آنها بدون اطلاع قبلی در چنین محتوایی ظاهر میشوند.
چالشهای قانونی
پیگرد قانونی تولیدکنندگان دیپفیک دشوار است، زیرا بسیاری از آنها بهصورت ناشناس فعالیت میکنند و اغلب در کشورهای مختلف مستقر هستند. قوانین موجود در بسیاری از کشورها هنوز با سرعت پیشرفت فناوری هماهنگ نشدهاند. در آلمان، تولید و توزیع پورنوگرافی دیپفیک میتواند تحت قوانین مربوط به نقض حریم خصوصی یا افترا قرار گیرد، اما اثبات جرم اغلب پیچیده است. در ایالات متحده، برخی ایالتها قوانین خاصی علیه پورنوگرافی غیرتوافقی وضع کردهاند، اما اجرای آنها چالشبرانگیز است. سازمانهای بینالمللی مانند اینترپل در حال همکاری برای ایجاد چارچوبهای قانونی جهانی هستند، اما پیشرفت کند است.
نقش پلتفرمها و شبکههای اجتماعی
پلتفرمهای آنلاین نقش مهمی در گسترش پورنوگرافی دیپفیک دارند. وبسایتهای پورنوگرافی که میزبان این محتوا هستند، اغلب در حوزههای قضایی با قوانین ضعیف فعالیت میکنند. شبکههای اجتماعی مانند تلگرام و دیسکورد نیز بهعنوان مراکز توزیع این محتوا شناخته شدهاند. اگرچه برخی پلتفرمها سیاستهایی برای حذف محتوای غیرقانونی دارند، اما نظارت بر حجم عظیم دادهها دشوار است. به گفته کارشناسان، هوش مصنوعی میتواند برای شناسایی و حذف دیپفیکها استفاده شود، اما این فناوری هنوز در مراحل اولیه است.
مبارزه با دیپفیک
فعالان و سازمانهای حقوق زنان خواستار اقدامات سختگیرانهتری برای مبارزه با این مشکل هستند. آنها کمپینهایی برای افزایش آگاهی و فشار بر قانونگذاران برای ایجاد قوانین سختگیرانهتر راهاندازی کردهاند. برخی پیشنهاد میکنند که شرکتهای فناوری باید مسئولیت بیشتری در قبال محتوای پلتفرمهای خود بپذیرند. در همین حال، ابزارهایی مانند نرمافزارهای تشخیص دیپفیک در حال توسعه هستند، اما هنوز بهطور گسترده در دسترس نیستند.