استاد دانشگاه پرینستون به ترس انسان از «غول هوش مصنوعی» پایان داد/ هوش مصنوعی هرگز «ابرانسانی» نخواهد شد، فقط «متفاوت» خواهد بود

استاد دانشگاه پرینستون، در یادداشتی برای گاردین می‌گوید ترس از «سبقت گرفتن» هوش مصنوعی از انسان، ناشی از اشتباه گرفتن هوش با «قد» است. او با ارائه دو مثال استدلال می‌کند که محدودیت‌های زیست‌شناختی انسان، نقطه قوت او هستند و هوش مصنوعی هرگز «ابرانسانی» نخواهد شد، فقط «متفاوت» خواهد بود.

استاد دانشگاه پرینستون به ترس انسان از «غول هوش مصنوعی» پایان داد/ هوش مصنوعی هرگز «ابرانسانی» نخواهد شد، فقط «متفاوت» خواهد بود

  تام گریفیتس توضیح می‌دهد که صحبت از «ابرانسانی» بودن هوش مصنوعی، هوش را یک مقیاس واحد فرض می‌کند. او برای نقد این پیش‌فرض از خاطره شخصی خود استفاده می‌کند و می‌گوید: والدینم قد من و برادرم را روی چهارچوب در علامت می‌زدند. هر سال او کمی به من نزدیکتر می‌شد تا اینکه یک سال از من بلندتر شد. به گفته او، لحظه کنونی شبیه همان حس است: نگرانی از اینکه مبادا «خواهر و برادرهای جوانتر جدید (هوش مصنوعی) از ما سبقت بگیرند. اما هوش مانند قد نیست؛ فقط یک راه برای بلند بودن وجود دارد، اما راه‌های زیادی برای باهوش بودن وجود دارد.

محدودیت‌های انسان، نقطه قوت او هستند

به گفته گریفیتس، زندگی کوتاه، مغز فشرده و توانایی محدود ارتباطی انسان، در مقایسه با ماشین‌ها محدودیت به نظر می‌رسند، اما «دقیقاً همین چیزها هستند که ما را خاص می‌کنند». هوش انسانی پاسخی به همین محدودیت‌هاست و توانایی شگفت‌انگیزی برای یادگیری از تجربه محدود ایجاد کرده است.

هوش مصنوعی «آلفاگو» بهترین بازیکنان بازی «گو» را شکست می‌دهد، اما این هوش مصنوعی با میلیون‌ها بازی آموزش دیده؛ در حالی که یک انسان حرفه‌ای شاید در تمام عمرش ۱۰,۰۰۰ بازی انجام داده باشد.

چت‌جی‌پی‌تی مکالمه معقولی دارد، اما از هزاران سال زبان تغذیه می‌کند. در مقابل، هیچ سیستم هوش مصنوعی نمی‌تواند با خلاقیت یک کودک پنج ساله و با همان میزان داده ورودی، جمله تولید کند.

دو نقص عملی در مدل‌های فعلی

استاد پرینستون برای اثبات تفاوت ذاتی، یک مثال ساده اما عمیق می‌زند. یک پژوهشگر به هوش مصنوعی GPT-4 دو رشته متنی نشان داد که هر دو از تکرار یک حرف خاص (مثلاً حرف «الف») ساخته شده بودند: در رشته اول ۲۹ حرف «الف» پشت سر هم و در رشته دوم ۳۰ حرف «الف» پشت سر هم قرار داشت.

سوال خیلی ساده بود: در این رشته‌ها چند حرف وجود دارد؟ GPT-4 به رشته ۳۰ حرفی، درست‌تر از رشته ۲۹ حرفی جواب داد. گریفیتس در توضیح این مسئله می‌گوید: منطق مدل این نیست که «تعداد را بشمارد»، بلکه منطقش این است که «به خاطر بیاورد قبلاً چه دیده است.»

مدل به سؤال ۳۰ حرفی درست‌تر جواب می‌دهد، نه به این دلیل که «۳۰» را بلد است، بلکه به این دلیل که «۳۰» در داده‌های آموزشی بیشتر دیده شده و الگوی شناخته‌شده‌تری دارد. وقتی مدل با یک الگوی ناآشنا (مثل ۲۹) مواجه می‌شود، «گیج» می‌شود و احتمال خطایش بالا می‌رود.

هوش مصنوعی رقیب نیست، همراه است

گریفیتس نتیجه می‌گیرد: هوش مصنوعی در همه چیز از انسان بهتر نخواهد بود. بلکه از برخی جهات بهتر و از برخی جهات بدتر خواهد بود. ذهن انسان و ماشین متفاوت خواهد بود، درست مانند خواهر و برادرها. شاید بتوانیم یاد بگیریم با یکدیگر نه به عنوان رقیب، بلکه به عنوان همراه رفتار کنیم.

منبع: شفقنا
شبکه‌های اجتماعی
دیدگاهتان را بنویسید