از وکالت تا شبیهسازی مردگان/ هوش مصنوعی وارد دادگاهها شد
از ویدیوهای دیپفیک گرفته تا پروندههای حقوقی ساختگی، با وجود هشدارها و مجازاتهای قضایی، استفاده از ابزارهای تولید محتوای هوش مصنوعی در دادگاهها ادامه دارد.

از پروندههای ساختگی ناشی از «توهمات» مدلهای زبانی گرفته تا ویدیوهای دیپفیک، هوش مصنوعی کمکم راهش را به دادگاهها باز کرده است. حالا، در یکی از عجیبترین موارد، این فناوری برای بازگرداندن مقتولان به ظاهر از مرگ استفاده شده است.
این هفته، خانوادهی یکی از قربانیان جرم، ویدیویی کوتاه در دادگاهی در ایالت آریزونا ارائه کردند که در آن، نسخهای هوشمصنوعی از «کریس پلکی» ۳۷ ساله، خطاب به متهم صحبت میکرد. پلکی در سال ۲۰۲۱ در جریان یک درگیری جادهای به ضرب گلوله کشته شد. اکنون، چهار سال بعد، «کلون» تولیدشده با هوش مصنوعی بهطور مجازی رو به قاتل احتمالیاش ایستاد. به گزارش شبکهی محلی ABC۱۵، این نخستین مورد شناختهشده از استفاده از یک دیپفیک تولیدشده با هوش مصنوعی در بیانیهی تأثیر جرم قربانی (victim impact statement) است.
در ویدیو، نسخهی بازسازیشدهی پلکی به متهم میگوید: «گابریل اورکاسیتاس، مردی که به من شلیک کردی، مایهی تأسف است که ما آن روز و در آن شرایط همدیگر را دیدیم. شاید در زندگیای دیگر، میتوانستیم دوست باشیم.»
در این ویدیو، پلکی، سرباز کهنهکار ارتش با هیکلی درشت و ریش پرپشت با هودی سبز و کلاهی طوسی ظاهر میشود. خانوادهاش این ویدیو را با استفاده از مدل هوش مصنوعی آموزشدیده بر اساس کلیپهای قدیمی از او تولید کردهاند. فیلتر «پیری» نیز بر چهرهاش اعمال شده تا نشان دهد او ممکن بود امروز چه شکلی باشد. در نهایت، قاضی، گابریل اورکاسیتاس را به ۱۰.۵ سال زندان به جرم قتل غیرعمد محکوم کرد، تصمیمی که به گفتهی خودش، تا حدی تحت تأثیر بیانیهی تولیدشده با هوش مصنوعی گرفته شد.
دیپفیک پلکی در پایان گفت: «این بهترین چیزیست که میتوانم به تو بدهم از اینکه اگر فرصت داشتم پیر شوم، چطور میبودم. به یاد داشته باش، پیر شدن نعمتیست که نصیب همه نمیشود. پس قدرش را بدان و نگران چین و چروکها نباش.»
استفادهی یک متهم نیویورکی از دیپفیک برای دفاع شخصی
تنها یک ماه پیش، یک متهم دیگر در ایالت نیویورک نیز از ویدیوی دیپفیک برای دفاع از خود استفاده کرد. «جروم دیوالد» ۷۴ ساله، در جریان رسیدگی به پروندهی اختلاف قراردادی با کارفرمای سابقش، ویدیویی ارائه کرد که در آن، مردی با ژاکت و پیراهن آبی مستقیم به دوربین نگاه میکرد و سخن میگفت. قاضی، که از ویدیو سردرگم شده بود، از دیوالد پرسید که آیا فرد در تصویر، وکیل اوست. اما حقیقت این بود که ویدیو، کاملاً ساختگی و توسط هوش مصنوعی تولید شده بود.
به گزارش نیویورک تایمز، دیوالد در پاسخ گفت: «من این ویدیو را تولید کردم. آن فرد واقعی نیست.»
قاضی از اینکه دیوالد استفاده از ابزار هوش مصنوعی را افشا نکرده بود، ابراز نارضایتی کرد و او را توبیخ نمود. دیوالد بعدها به نیویورک تایمز گفت که قصد گمراهکردن دادگاه را نداشته و تنها تلاش کرده تا دفاعیهاش را به شکل واضحتری ارائه دهد. او توضیح داد که در ابتدا قصد داشت چهرهی دیپفیک را شبیه خودش بسازد اما به دلیل مشکلات فنی، به نسخهی جایگزین روی آورد.
دیوالد در نامهای به قضات نوشت: «قصد من هرگز فریب نبود، بلکه فقط میخواستم استدلالهایم را به مؤثرترین شکل ممکن بیان کنم.»
از پروندههای ساختگی تا دادخواستهای علیه چتباتها
این دو پرونده تازهترین نمونهها از حضور فزایندهی هوش مصنوعی مولد در دادگاهها هستند. این روند از چند سال پیش، همزمان با همهگیر شدن چتباتهایی مانند ChatGPT آغاز شد. بسیاری از وکلا در سراسر ایالات متحده از مدلهای زبانی بزرگ برای نوشتن دادخواستها و جمعآوری اطلاعات استفاده کردهاند. اما این امر در مواردی منجر به اشتباهات فاجعهبار شده—از جمله ایجاد پروندههای حقوقی کاملاً ساختگی و نقل قول از منابعی که اصلاً وجود ندارند.
در سال ۲۰۲۳، دو وکیل در نیویورک بهدلیل ارائهی یک لایحهی حقوقی شامل شش مورد استناد به پروندههای جعلی تولیدشده توسط ChatGPT، با مجازات قضایی روبهرو شدند. «مایکل کوهن»، وکیل شخصی سابق دونالد ترامپ نیز reportedly پروندههای ساختگی تولیدشده با هوش مصنوعی را برای وکیلش فرستاده بود که در نهایت در یک دادخواست به دادگاه فدرال ارسال شد. یک وکیل دیگر در کلرادو هم به دلیل ارائهی مستندات جعلی تولیدشده با AI، با تعلیق مواجه شد. حتی یک مجری رادیویی در جورجیا، از OpenAI شکایت کرده و مدعی شده بود که ChatGPT او را بهاشتباه به مشارکت در یک پروندهی اختلاس نسبت داده که هیچ ارتباطی با آن نداشته است.
آیندهای مبهم اما اجتنابناپذیر
با اینکه برخی از دادگاهها وکلا و متهمان را بهدلیل استفادهی فریبکارانه از هوش مصنوعی مجازات کردهاند، هنوز قوانین روشنی دربارهی استفادهی مجاز یا ممنوع این ابزارها در روندهای حقوقی وجود ندارد. هفتهی گذشته، یک هیئت قضایی فدرال با رأی ۸ به ۱ تصمیم گرفت تا نظر عمومی را دربارهی پیشنویس قانونی جویا شود که هدف آن، اطمینان از این است که شواهد تولیدشده با هوش مصنوعی همان استانداردهایی را داشته باشند که از شاهدان انسانی انتظار میرود.
رئیس دیوان عالی آمریکا، جان رابرتس، نیز در گزارش سالانهی خود در سال ۲۰۲۳ به این موضوع پرداخت. او ضمن اشاره به مزایای بالقوهی استفاده از هوش مصنوعی برای افرادی با منابع مالی محدود، هشدار داد که این فناوری ممکن است به «نقض حریم خصوصی» و «غیرانسانیکردن حقوق» منجر شود.
اما یک چیز قطعی است: حضور دیپفیکها در دادگاهها تازه آغاز شده است.