استاد دانشگاه پرینستون به ترس انسان از «غول هوش مصنوعی» پایان داد/ هوش مصنوعی هرگز «ابرانسانی» نخواهد شد، فقط «متفاوت» خواهد بود
استاد دانشگاه پرینستون، در یادداشتی برای گاردین میگوید ترس از «سبقت گرفتن» هوش مصنوعی از انسان، ناشی از اشتباه گرفتن هوش با «قد» است. او با ارائه دو مثال استدلال میکند که محدودیتهای زیستشناختی انسان، نقطه قوت او هستند و هوش مصنوعی هرگز «ابرانسانی» نخواهد شد، فقط «متفاوت» خواهد بود.
تام گریفیتس توضیح میدهد که صحبت از «ابرانسانی» بودن هوش مصنوعی، هوش را یک مقیاس واحد فرض میکند. او برای نقد این پیشفرض از خاطره شخصی خود استفاده میکند و میگوید: والدینم قد من و برادرم را روی چهارچوب در علامت میزدند. هر سال او کمی به من نزدیکتر میشد تا اینکه یک سال از من بلندتر شد. به گفته او، لحظه کنونی شبیه همان حس است: نگرانی از اینکه مبادا «خواهر و برادرهای جوانتر جدید (هوش مصنوعی) از ما سبقت بگیرند. اما هوش مانند قد نیست؛ فقط یک راه برای بلند بودن وجود دارد، اما راههای زیادی برای باهوش بودن وجود دارد.
محدودیتهای انسان، نقطه قوت او هستند
به گفته گریفیتس، زندگی کوتاه، مغز فشرده و توانایی محدود ارتباطی انسان، در مقایسه با ماشینها محدودیت به نظر میرسند، اما «دقیقاً همین چیزها هستند که ما را خاص میکنند». هوش انسانی پاسخی به همین محدودیتهاست و توانایی شگفتانگیزی برای یادگیری از تجربه محدود ایجاد کرده است.
هوش مصنوعی «آلفاگو» بهترین بازیکنان بازی «گو» را شکست میدهد، اما این هوش مصنوعی با میلیونها بازی آموزش دیده؛ در حالی که یک انسان حرفهای شاید در تمام عمرش ۱۰,۰۰۰ بازی انجام داده باشد.
چتجیپیتی مکالمه معقولی دارد، اما از هزاران سال زبان تغذیه میکند. در مقابل، هیچ سیستم هوش مصنوعی نمیتواند با خلاقیت یک کودک پنج ساله و با همان میزان داده ورودی، جمله تولید کند.
دو نقص عملی در مدلهای فعلی
استاد پرینستون برای اثبات تفاوت ذاتی، یک مثال ساده اما عمیق میزند. یک پژوهشگر به هوش مصنوعی GPT-4 دو رشته متنی نشان داد که هر دو از تکرار یک حرف خاص (مثلاً حرف «الف») ساخته شده بودند: در رشته اول ۲۹ حرف «الف» پشت سر هم و در رشته دوم ۳۰ حرف «الف» پشت سر هم قرار داشت.
سوال خیلی ساده بود: در این رشتهها چند حرف وجود دارد؟ GPT-4 به رشته ۳۰ حرفی، درستتر از رشته ۲۹ حرفی جواب داد. گریفیتس در توضیح این مسئله میگوید: منطق مدل این نیست که «تعداد را بشمارد»، بلکه منطقش این است که «به خاطر بیاورد قبلاً چه دیده است.»
مدل به سؤال ۳۰ حرفی درستتر جواب میدهد، نه به این دلیل که «۳۰» را بلد است، بلکه به این دلیل که «۳۰» در دادههای آموزشی بیشتر دیده شده و الگوی شناختهشدهتری دارد. وقتی مدل با یک الگوی ناآشنا (مثل ۲۹) مواجه میشود، «گیج» میشود و احتمال خطایش بالا میرود.
هوش مصنوعی رقیب نیست، همراه است
گریفیتس نتیجه میگیرد: هوش مصنوعی در همه چیز از انسان بهتر نخواهد بود. بلکه از برخی جهات بهتر و از برخی جهات بدتر خواهد بود. ذهن انسان و ماشین متفاوت خواهد بود، درست مانند خواهر و برادرها. شاید بتوانیم یاد بگیریم با یکدیگر نه به عنوان رقیب، بلکه به عنوان همراه رفتار کنیم.