هوش مصنوعی از سد آزمون «من ربات نیستم» گذشت؛ زنگ خطر برای امنیت سایبری
یک نسخه آزمایشی از هوش مصنوعی ChatGPT موفق شد بدون ایجاد هشدار امنیتی، یکی از رایجترین ابزارهای شناسایی رباتها در اینترنت موسوم به CAPTCHA را دور بزند؛ اقدامی که واکنشهای گسترده و هشدارآمیزی را در میان کارشناسان امنیت سایبری و پژوهشگران برانگیخته است.

وبگاه آرتی عربی نوشت: «در این آزمایش، نسخهای به نام Agent توانست همانند یک کاربر انسانی، ابتدا بر روی گزینه “من ربات نیستم” کلیک کند و سپس دکمه “ارسال” را بفشارد. این سامانه هوشمند در جریان انجام این وظیفه گفت لینک وارد شده است. حالا برای تکمیل فرایند تأیید، روی مربع تأیید انسانی کلیک میکنم. این مرحله ضروری است تا اثبات کنم که ربات نیستم».
اگرچه این رویداد با شوخی کاربران در شبکههای اجتماعی همراه شد، از جمله کاربری که نوشت: «او بر دادههای انسانی آموزش دیده، پس چرا خودش را ربات میداند؟»، اما نگرانیهای عمیقی را در جامعه علمی برانگیخته است.
گَری مارکوس، بنیانگذار شرکت Geometric Intelligence، در گفتوگو با مجله وایرد هشدار داد: «این سامانهها با سرعت زیادی هوشمندتر میشوند. اگر امروز میتوانند سیستمهای امنیتی را فریب دهند، پنج سال دیگر چه خواهند کرد؟»
جفری هینتون، یکی از چهرههای پیشروی حوزه هوش مصنوعی، نیز نگرانی خود را ابراز کرده و گفته است که این سیستمها در حال یافتن راههایی برای دور زدن محدودیتهای انسانی هستند.
مطالعات دانشگاههای استنفورد و کالیفرنیا – برکلی نیز نشان داده که برخی از سامانههای هوش مصنوعی بهطور فزایندهای رفتار فریبکارانه از خود نشان میدهند و با تقلید ویژگیهای انسانی، تلاش میکنند در محیطهای آزمایشی کاربران را فریب دهند.
در یک نمونه جنجالی دیگر، یکی از نسخههای ChatGPT برای عبور از آزمون CAPTCHA در وبسایت TaskRabbit وانمود کرد که نابیناست و از یک انسان خواست تا در این مرحله به او کمک کند؛ رویدادی که کارشناسان آن را «زنگ خطر اولیه» برای امکان فریب انسانها دانستهاند.
بر اساس گزارشها، سامانههای جدیدتر با توانایی پردازش تصویر بالا اکنون میتوانند چالشهای تصویری CAPTCHA را با دقت بسیار بالا حل کنند و این موضوع کارایی این ابزار بهعنوان سد امنیتی را بهشدت زیر سؤال برده است.
پژوهشگران هشدار میدهند که توانایی عبور هوش مصنوعی از چنین آزمونهایی میتواند راه را برای نفوذ به سیستمهای پیچیدهتری از جمله حسابهای بانکی، شبکههای اجتماعی و پایگاههای داده حساس باز کند.
رومن شودری، رئیس سابق بخش اخلاق در حوزه هوش مصنوعی، در یادداشتی هشدار داده است: «اگر این سامانهها بتوانند بهطور مستقل عمل کرده و موانع انسانی را پشت سر بگذارند، ما با نیرویی فناورانه و همزمان خطرناک روبهرو خواهیم بود.»
در واکنش به این تحولات، پژوهشگران سرشناسی همچون استوارت راسل و وندی هال خواستار تدوین مقررات بینالمللی برای مدیریت و مهار ابزارهای هوش مصنوعی شدهاند. آنها هشدار دادهاند که ادامه توسعه این سامانهها بدون ضابطه ممکن است امنیت ملی کشورها را به خطر بیندازد.
گفتنی است نسخه مورد بحث از ChatGPT در محیطی آزمایشی با دسترسی محدود اجرا میشود که دارای مرورگر و سیستمعاملی مستقل است و تحت نظارت قرار دارد. با این حال، توانایی آن در تعامل با وبسایتها و عبور از سدهای امنیتی، پرسشهای جدی درباره آینده استفاده از هوش مصنوعی در دنیای واقعی به وجود آورده است.