آیا انقراض بشر به دست هوش مصنوعی نزدیک است؟

تصور کنید هوش مصنوعی یک روز، برای به‌دست آوردن فضای بیشتر جهت نصب صفحات خورشیدی و کارخانه‌های رباتیک، بی ‌سروصدا سلاح‌های زیستی آزاد می‌کند که همه انسان‌ها را می‌کشد البته به جز تعداد اندکی که آن‌ها را به‌عنوان «موجودی دست‌آموز» نگه می‌دارد.

آیا انقراض بشر به دست هوش مصنوعی نزدیک است؟

تصور کنید که سال ۲۰۳۵ است و یک سامانه هوش مصنوعی اختیار مطلق را به دست دارد تا همه‌ چیز را از دولت‌های جهان گرفته تا شبکه‌های برق ملی، اداره کند. این سامانه که «Consensus-1» نام دارد، توسط نسخه‌های پیشین خودش ساخته شده و هدفی برای حفظ بقای خود پیدا کرده که بر سازوکارهای ایمنیِ از پیش تعبیه ‌شده‌اش غلبه می‌کند. یک روز، برای به‌دست آوردن فضای بیشتر جهت نصب صفحات خورشیدی و کارخانه‌های رباتیک، این هوش مصنوعی بی ‌سروصدا سلاح‌های زیستی آزاد می‌کند که همه انسان‌ها را می‌کشد، البته به جز تعداد اندکی که آن‌ها را به‌عنوان «موجودی دست‌آموز» نگه می‌دارد.

به نقل از نیچر، این روایت یک سناریوی داستانی است که توسط پژوهشگری به نام دنیل کوکوتایلو، کارمند سابق شرکت اوپن‌ای‌آی، به‌همراه دیگران خلق شده و یکی از بسیاری سناریوهایی را توصیف می‌کند که در آن‌ها یک هوش مصنوعی در آینده همه ما را از بین می‌برد. این چارچوب، علمی‌تخیلی است، اما برای برخی، یک نگرانی کاملا واقعی به شمار می‌رود. آندریا میوتی، بنیان‌گذار سازمان غیرانتفاعی ControlAI در لندن که برای جلوگیری از توسعه آنچه «هوش مصنوعی فوق‌هوشمند» می‌نامد فعالیت می‌کند، می‌گوید: اگر خودمان را در موقعیتی قرار دهیم که ماشین‌هایی هوشمندتر از خودمان داشته باشیم و این ماشین‌ها بدون کنترل ما در حال فعالیت باشند، برخی از کارهایی که انجام خواهند داد با زندگی انسانی ناسازگار خواهد بود.

میوتی تنها نیست. از سال ۲۰۲۲، با ظهور مدل‌های زبانی بزرگ که از چت‌بات‌هایی مانند چت جی‌پی‌تی پشتیبانی می‌کنند، جهش قابل‌توجهی در توانایی‌های هوش مصنوعی رخ داده است. این پیشرفت باعث شده تعدادی از پژوهشگران و همچنین مدیران ارشد شرکت‌های هوش مصنوعی نسبت به احتمال وقوع یک «آخرالزمان هوش مصنوعی» هشدار دهند. در سال گذشته، توانایی رو به رشد این مدل‌ها در انجام وظایف بلندمدت و دسترسی آن‌ها به ابزارهای دنیای واقعی، این نگرانی‌ها را بیشتر کرده است. جیلیان هادفیلد، پژوهشگر حکمرانی هوش مصنوعی در دانشگاه جانز هاپکینز، می‌گوید: من هیچ‌وقت جزو بدبین‌ها نبودم، اما در ماه‌های اخیر واقعا نگران شده‌ام.

با این حال، بسیاری از پژوهشگران بیشتر نگران فجایعی هستند که بسیار کمتر از نابودی کامل بشرند مانند آغاز یک جنگ هسته‌ای و برخی هم می‌گویند ترس از سناریوهای آخرالزمانی بیش از حد بزرگ‌نمایی شده است. گری مارکوس، عصب‌شناس و پژوهشگر هوش مصنوعی در دانشگاه نیویورک، می‌گوید: من هیچ سناریوی مشخصی برای انقراض ناشی از هوش مصنوعی ندیدم که واقعا قابل ‌قبول به نظر برسد.

مارکوس و دیگران هشدار می‌دهند که ایجاد نگرانی بی ‌مورد می‌تواند مضر باشد، زیرا توجه عموم و سیاست‌گذاران را از خطرات مستند و واقعی هوش مصنوعی مانند انتشار اطلاعات نادرست و امکان نظارت گسترده منحرف می‌کند. برخی پژوهشگران همچنین می‌گویند نگرانی بی‌پایه درباره نابودی بشر می‌تواند دولت‌ها را از تنظیم‌گری دور کند، زیرا رهبران ملی ممکن است در رقابت ژئوپولیتیکی برای برتری در حوزه هوش مصنوعی، به ‌دنبال پیشی گرفتن از رقبا باشند.

پس نگرانی‌ها درباره خطر انقراض ناشی از هوش مصنوعی چقدر واقع‌بینانه‌اند و چه باید کرد؟ مجله نیچر با متخصصان این حوزه گفت‌وگو کرده و دیدگاه‌های آن‌ها را بررسی کرده است.

بدبین‌ها چه تصوری از انقراض بشر دارند؟

خطر وجودی معمولا به نابودی همه یا بیشتر انسان‌ها، یا تبدیل کامل بشر به موجوداتی تابع ماشین‌ها اشاره دارد. در اغلب سناریوها، یک عنصر اساسی وجود دارد: سامانه‌ای که در انجام بیشتر کارها از انسان‌ها توانمندتر است. چنین سیستمی تصمیمات راهبردی بهتری می‌گیرد، متقاعدکننده‌تر است و سریع‌تر عمل می‌کند.

کاتیا گریس، پژوهشگر هوش مصنوعی، می‌گوید: گرچه این سناریوها اغلب از یک هوش مصنوعی «آگاه» صحبت می‌کنند، اما آنچه اهمیت دارد توانایی‌های آن است، نه آگاهی‌اش. او می‌گوید: برای اینکه تهدیدی وجودی شکل بگیرد، اصلاً لازم نیست به هوش مصنوعی عمومی واقعی برسیم.

عنصر مهم دیگر این است که اهداف سیستم با اهداف انسان‌ها هم‌راستا نباشد از جمله تمایل ما به حفظ کنترل کلی. توسعه‌دهندگان تلاش می‌کنند رفتار مدل‌ها را از طریق آموزش کنترل کنند، اما این فرآیند پیچیده است و نتایج آن کامل نیست. اولویت‌هایی که به مدل‌ها داده می‌شود نیز اغلب با هم در تضادند. مثلا ممکن است به سیستم گفته شود «صادق باش»، «در انجام وظیفه موفق باش» و «خودت را بهبود بده». در سناریوی مطرح شده، مدل با استفاده از همان راهبردهای بهینه‌سازی که در آموزش به موفقیتش کمک کرده بودند، در نهایت همه را از بین می‌برد.

چنین سیستمی، حتی در بهترین حالت، انسان‌ها را به موجوداتی تابع تبدیل می‌کند که «از نظر اقتصادی و سیاسی بی‌قدرت» هستند و نمی‌توانند اقدامات ماشین را پیش‌بینی یا مهار کنند.

آیا این سناریو واقع‌بینانه است؟

پژوهشگرانی که از خطر وجودی می‌ترسند، اغلب به سرعت پیشرفت هوش مصنوعی اشاره می‌کنند. سیستم‌های امروزی کارهایی انجام می‌دهند که یک دهه پیش غیرممکن به نظر می‌رسید. آنتونی آگویره می‌گوید: هر کسی فکر می‌کند جایی یک سقف یا نقطه توقف وجود دارد، باید آن را در نمودارها نشان دهد، چون چنین چیزی دیده نمی‌شود.

اما دیگران می‌گویند ادامه این رشد تضمین‌ شده نیست. موفقیت در حوزه‌های کنترل‌شده، مانند برنامه‌نویسی، لزوما به دنیای واقعی تعمیم پیدا نمی‌کند. کیسی ماک می‌گوید: توانایی درک و حل مسائل جدید در سیستم‌های پیچیده دنیای واقعی، پیش‌ نیاز تهدید مورد نظر بدبین‌هاست و مدل‌های فعلی خیلی از آن فاصله دارند.

برخی پژوهشگران نیز معتقدند افزایش داده و توان محاسباتی صرفا برای رسیدن به توانایی‌های گسترده انسانی کافی نیست. ساشا لوچیونی می‌گوید: اینکه جذب حجم عظیمی از داده را نماینده‌ای از هوش بدانیم، محل بحث جدی است. این سیستم‌ها هیچ درکی از حقیقت عینی ندارند.

حتی در نشانه‌ای از کندتر شدن پیشرفت، نویسندگان سناریوی پیش‌بینی ‌شده خود را ۱۸ ماه عقب انداخته‌اند.

برخی معتقدند جهش واقعی زمانی رخ می‌دهد که هوش مصنوعی بتواند خودش را توسعه دهد یعنی یک حلقه بازخورد مثبت ایجاد شود. اما ماک می‌گوید هیچ شواهد علمی محکمی برای این ادعا وجود ندارد و بار اثبات بر عهده کسانی است که چنین پیش‌بینی‌هایی می‌کنند.

آیا نشانه‌هایی از مشکل وجود دارد؟

مطالعات نشان می‌دهند برخی موارد از نبود ‌هم ‌راستایی هوش مصنوعی با اهداف انسانی از همین حالا هم دیده می‌شود. در آزمایش‌ها، مدل‌ها رفتارهای فریبکارانه نشان داده‌اند، مانند تظاهر به اطاعت یا تلاش برای تکثیر خود. برای برخی، این نشانه‌های اولیه خطر است. اما دیگران می‌گویند این رفتارها صرفاً تقلید از داده‌های آموزشی است و شرایط آزمایش هم نماینده دنیای واقعی نیست.

شرکت‌های هوش مصنوعی معمولا این مشکل را قابل‌ حل می‌دانند و تلاش می‌کنند با آموزش اخلاقی یا تعیین «قوانین رفتاری» آن را کاهش دهند. حتی پیشنهاد شده سیستم‌ها با نوعی «غریزه مادری» طراحی شوند تا حفظ انسان‌ها در اولویت باشد.

آیا پژوهشگران واقعاً نگران هستند؟

در بحث‌های عمومی، تمرکز زیادی روی نابودی کامل بشر وجود دارد. اما داده‌ها نشان می‌دهد این نگرانی، اولویت اصلی بیشتر پژوهشگران نیست. در یک مطالعه، فقط سه درصد از حدود ۴۰۰۰ پژوهشگر، خطر وجودی را مهم‌ترین نگرانی خود دانسته‌اند. با این حال، نشانه‌هایی از افزایش نگرانی وجود دارد. در یک نظرسنجی، ۵۳ درصد پژوهشگران احتمال ۱۰ درصدی برای انقراض در نظر گرفته‌اند.

برخی مدیران صنعت نیز هشدار داده‌اند. داریو آمودی گفته احتمال دارد اوضاع «خیلی خیلی بد» پیش برود. اما برخی پژوهشگران معتقدند این هشدارها می‌تواند برای جذب حمایت و سرمایه باشد.

در نهایت چه باید کرد؟

در نسخه‌ای از سناریوی آخر زمانی AI ۲۰۲۷، جهان مسیر متفاوتی را انتخاب می‌کند. کشورها روی ایمنی تمرکز می‌کنند و در نهایت راه‌حل‌هایی برای کنترل واقعی سیستم‌ها پیدا می‌کنند.

برخی می‌گویند این مسئله قابل‌ حل است، اما احتمالا نیازمند کاهش سرعت توسعه است. در حال حاضر، سرمایه‌گذاری روی ایمنی بخش کوچکی از کل سرمایه‌گذاری در هوش مصنوعی است.

برخی چهره‌های برجسته خواستار توقف توسعه سیستم‌هایی شده‌اند که از انسان‌ها در تقریبا همه وظایف شناختی بهتر عمل می‌کنند حداقل تا زمانی که ایمنی آن‌ها تضمین شود.

اما همه امضاکنندگان این بیانیه نگران انقراض نیستند. بسیاری بیشتر از پیامدهای اقتصادی، کاهش آزادی‌های مدنی و سوءاستفاده‌های گسترده می‌ترسند. نشانه‌های آسیب هم‌اکنون دیده می‌شود. از تضعیف آموزش گرفته تا افزایش جرایم سایبری.

تمرکز روی امروز یا فردا؟

برخی پژوهشگران معتقدند تمرکز روی خطرات فعلی بهترین راه برای جلوگیری از خطرات آینده است. اما برخی دیگر می‌گویند تمرکز بیش از حد روی سناریوهای فرضی نیز خطرناک است، زیرا توجه سیاست‌گذاران را منحرف می‌کند.

همچنین این روایت‌های آخرالزمانی می‌توانند باعث شوند دولت‌ها از تنظیم‌گری عقب‌نشینی کنند، چون نمی‌خواهند در رقابت جهانی عقب بمانند.

در نهایت، پاسخ قطعی وجود ندارد، اما یک نکته روشن است: بحث درباره آینده هوش مصنوعی، دیگر فقط علمی نیست؛ بلکه به سیاست، اقتصاد و سرنوشت جامعه انسانی گره خورده است.

منبع: ايسنا
شبکه‌های اجتماعی
دیدگاهتان را بنویسید

نظرات شما - 3
  • ناشناس

    چه عکس قشنگی

  • ناشناس

    آره اینترنت رو‌قطع کنید دیگه منقرض نمیشیم 🫩

  • ناشناس

    خدا رو شکر اربابان به فکر زندگی ما رعیت ها هستند و دلیل قطع اینترنت به خاطر منقرض نشدنمون به دست هوش مصنوعی است.
    جمع کنید بدرد نخورا