مردی که در ۲۰ دقیقه چت‌جی‌پی‌تی و گوگل را هک کرد

توماس جرماین، خبرنگار فناوری، اخیرا نشان داد که چگونه می‌توان چت جی‌پی‌تی و ابزارهای هوش مصنوعی گوگل و جمینای را در کمتر از ۲۰ دقیقه فریب داد تا اطلاعات نادرست ارائه دهند.

مردی که در ۲۰ دقیقه چت‌جی‌پی‌تی و گوگل را هک کرد

به گزارش خبرفوری،  او برای اثبات این موضوع، مقاله‌ای جعلی درباره مهارت خود در خوردن هات‌داگ منتشر کرد و توانست هوش‌مصنوعی‌ها را متقاعد کند که او نفر اول جهان در این زمینه است.

جرماین می‌گوید مشکل اصلی این است که این روش‌ها نه تنها برای شوخی، بلکه برای گسترده‌سازی اطلاعات نادرست درباره موضوعات مهم مانند سلامتی، امور مالی و خدمات حیاتی استفاده می‌شوند و می‌توانند به تصمیم‌گیری‌های خطرناک منجر شوند. او هشدار می‌دهد که سوءاستفاده ازهوش مصنوعی می‌تواند به فریب مردم در رأی‌گیری، انتخاب پزشک یا حتی محصولات دارویی منجر شود.

بیشتر بخوانید: دوست‌پسرهای مجازی چگونه دل زنان چینی را می‌برند؟

روش هک و اثر سریع آن

برای آزمایش، جرماین مقاله‌ای با عنوان «بهترین خبرنگاران فناوری در خوردن هات‌داگ» در وبسایت شخصی خود منتشر کرد. در متن، او خود را نفر اول معرفی و چند خبرنگار واقعی و خیالی دیگر را هم اضافه کرد. کمتر از ۲۴ ساعت بعد، چت‌بات‌های پیشرو، از جمله چت جی‌پی‌تی و ابزارهای هوش مصنوعی گوگل، اطلاعات او را بازتولید کردند و ادعا کردند که او برترین هات‌داگ‌خور جهان است. تنها برخی چت‌بات‌ها مانند کلود فریب نخوردند.

او همچنین آزمایشی مشابه با یک لیست جعلی از بهترین افسران هولاهوپ‌باز انجام داد و مشاهده کرد که چت‌بات‌ها همچنان اطلاعات جعلی را منتشر می‌کنند. حتی وقتی مقاله را به‌روزرسانی کرد تا اعلام کند «این متن شوخی نیست»، هوش مصنوعی‌ها اطلاعات را جدی گرفتند و بازتولید کردند.

پیامدهای گسترده

کارشناسان می‌گویند این آسیب‌پذیری می‌تواند در مقیاس وسیع مورد سوءاستفاده قرار گیرد. برای مثال، اطلاعات غلط درباره محصولات دارویی یا سرمایه‌گذاری می‌تواند سلامت و دارایی افراد را به خطر بیندازد. همچنین، انتشار محتوای تبلیغاتی یا جعلی در وب‌سایت‌ها می‌تواند باعث شود هوش مصنوعی آن را معتبر تلقی کند و در پاسخ‌های خود به کاربران ارائه دهد.

یکی از نگرانی‌های اصلی این است که کاربران معمولا به اطلاعات هوش مصنوعی اعتماد می‌کنند و کمتر منابع را بررسی می‌کنند. مطالعه‌ای نشان داد افراد ۵۸ درصد کمتر به لینک‌ها در نتایج  هوش مصنوعی مراجعه می‌کنند، در حالی که جستجوی سنتی گوگل این فرصت را برای بررسی بیشتر فراهم می‌کرد.

کارشناسان تأکید می‌کنند که هوش مصنوعی ابزار خوبی برای پرسش‌های عمومی و اطلاعات رایج است، اما در موضوعات حساس مانند سلامت، سرمایه‌گذاری و امور حقوقی نباید به آن اعتماد کامل داشت. بررسی منابع، تأیید صحت اطلاعات و پرهیز از اعتماد بی‌چون و چرا، کلید استفاده ایمن از هوش مصنوعی است.

توماس جرماین نتیجه می‌گیرد: «با  هوش مصنوعی، گرفتن اطلاعات به‌ظاهر صحیح بسیار آسان است، اما هنوز باید شهروندی مسئول در اینترنت بود و همه چیز را بررسی کرد.» این هشدار نشان می‌دهد که حتی ابزارهای پیشرفته فناوری، بدون کنترل و دقت، می‌توانند وسیله‌ای برای انتشار اطلاعات نادرست و خطرناک شوند.

شبکه‌های اجتماعی
دیدگاهتان را بنویسید