این هوش مصنوعی، ۲۰ برابر کمتر از «چت‌جی‌پی‌تی» انرژی مصرف می‌کند

پژوهشگران آمریکایی یک سیستم هوش مصنوعی مفهومی را ارائه داده‌اند که ۲۰ برابر انرژی کمتری نسبت به «چت‌جی‌پی‌تی» مصرف می‌کند و نتایج بهتری می‌گیرد.

این هوش مصنوعی، ۲۰ برابر کمتر از «چت‌جی‌پی‌تی» انرژی مصرف می‌کند

عملیات هوش مصنوعی که توسط سرورهای بزرگی مانند سرور «آزمایشگاه ملی ساندیا»(Sandia National Laboratory) یا «کلوسوس»(Colossus) شرکت «ایکس‌ای‌آی»(xAI) در ممفیس و همچنین سایر پروژه‌های در حال ساخت مانند «استارگیت»(Stargate) شرکت «مایکروسافت»(Microsoft) و «اوپن‌ای‌آی»(OpenAI) پشتیبانی می‌شوند، می‌توانند به اندازه یک شهر کوچک تا متوسط، ​​انرژی مصرف کنند.

به نقل از فیوچرا، هوش مصنوعی در آمریکا مقادیر زیادی از برق را مصرف می‌کند. براساس گزارش آژانس بین‌المللی انرژی، سیستم‌ها و مراکز داده هوش مصنوعی در سال ۲۰۲۴ حدود ۴۱۵ تراوات ساعت برق مصرف کرده‌اند. این رقم بیش از ۱۰ درصد کل تولید برق آمریکا را تشکیل می‌دهد و انتظار می‌رود تقاضا تا سال ۲۰۳۰ دو برابر شود.

این گسترش سریع، نگرانی‌های جدی را درباره پایداری ایجاد کرده است. گروهی از پژوهشگران در واکنش به این امر، یک سیستم هوش مصنوعی مفهومی را توسعه داده‌اند که به طور چشمگیری کارآمدتر است. روش آنها می‌تواند مصرف انرژی را تا ۱۰۰ برابر کاهش دهد و در عین حال، عملکرد را در وظایف خاص بهبود ببخشد.

این پژوهش در آزمایشگاه «ماتیاس شوتز»(Matthias Scheutz) استاد «دانشگاه تافتس»(Tufts University) انجام شده است. گروه او در حال کار کردن روی هوش مصنوعی عصبی-نمادین هستند که شبکه‌های عصبی سنتی را با استدلال نمادین ترکیب می‌کند. این روش، نحوه‌ معمول حل مسائل توسط انسان‌ها را منعکس می‌کند و به جای تکیه‌ صرف بر الگوها، چالش‌ها را پیش از تصمیم‌گیری درباره یک اقدام، به مراحل و گروه‌های منطقی تقسیم می‌کند.

این گروه پژوهشی به جای مدل‌های زبانی بزرگ و آشنا مانند «چت‌جی‌پی‌تی»(ChatGPT) یا «جمینای»(Gemini)، بر سیستم‌های هوش مصنوعی مورد استفاده در حوزه رباتیک تمرکز دارد. این سیستم‌ها به عنوان مدل‌های «زبان-بینایی-عمل» یا به اختصار مدل‌های VLA شناخته می‌شوند. آنها با افزودن ادراک بصری و حرکت فیزیکی، قابلیت‌های مدل‌های زبانی را گسترش می‌دهند.

در عمل، مدل‌های VLA ورودی‌های بصری دوربین‌ها را در کنار دستورالعمل‌های نوشتاری یا گفتاری پردازش می‌کنند. سپس، آن اطلاعات را به اقدامات دنیای واقعی تبدیل می‌کنند. به عنوان مثال، یک ربات ممکن است از این مدل برای حرکت دادن چرخ‌ها، بازوها یا انگشتان خود برای انجام دادن یک کار خاص استفاده کند.

سیستم‌های VLA مرسوم به شدت به مجموعه داده‌های بزرگ و یادگیری از طریق آزمون و خطا متکی هستند. اگر از یک ربات خواسته شود آجرها را به صورت یک برج روی هم بچیند، ابتدا باید صحنه را تحلیل کند، هر آجر را شناسایی کند و روش درست قرار دادن آنها را تعیین کند. این فرآیند اغلب به اشتباه منجر می‌شود. سایه‌ها ممکن است سیستم را درباره شکل یک آجر گیج کنند یا ربات ممکن است قطعات را به اشتباه قرار دهد و به فروپاشی سازه منجر شود.

این مشکلات مشابه مشکلاتی هستند که در مدل‌های زبانی بزرگ دیده می‌شوند. همان طور که ربات‌ها می‌توانند آجرها را اشتباه قرار دهند، چت‌بات‌ها گاهی اوقات پاسخ‌های نادرست یا گمراه‌کننده تولید می‌کنند. برخی از آنها حتی پرونده‌های حقوقی جعلی ساخته‌اند یا تصاویری حاوی جزئیات غیرواقعی مانند انگشتان اضافی تولید کرده‌اند.

چگونه استدلال نمادین دقت و کارآیی را بهبود می‌بخشد؟

استدلال نمادین یک راهبرد جایگزین را ارائه می‌دهد. این روش به جای تکیه صرف بر الگوهای آماری داده‌ها، از قوانین و ایده‌های انتزاعی مانند شکل، تعادل یا روابط منطقی استفاده می‌کند. این روش به سیستم امکان می‌دهد تا برنامه‌ریزی مؤثرتری داشته باشد و از آزمون و خطای غیرضروری جلوگیری می‌کند. شوتز توضیح داد که مدل‌های سنتی با پیش‌بینی محتمل‌ترین اقدام بعدی براساس مجموعه داده‌های آموزشی بزرگ، مشابه مدل‌های زبانی رفتار می‌کنند. در هر حال، این فرآیند اغلب خطاهایی را به همراه دارد.

یک سیستم VLA می‌تواند قوانینی را اعمال کند که حدس و گمان را در طول یادگیری کاهش می‌دهند و بسیار سریع‌تر به یک راه‌حل درست می‌رسند. این سیستم نه تنها می‌تواند وظایف را سریع‌تر انجام دهد، بلکه زمان مورد نیاز برای آموزش سیستم را نیز به میزان قابل توجهی کاهش می‌دهد.

پژوهشگران برای ارزیابی مدل خود، آن را با استفاده از معمای معروف «برج هانوی»(Tower of Hanoi) آزمایش کردند که یک معمای کلاسیک است و به برنامه‌ریزی دقیق و توالی منطقی نیاز دارد. در این آزمایش، VLA به میزان موفقیت ۹۵ درصد دست یافت؛ در حالی که این آمار برای سیستم‌های معمولی تنها ۳۴ درصد بود.

وقتی پژوهشگران نسخه‌ پیچیده‌تری از معما را که سیستم قبلاً هرگز با آن روبه‌رو نشده بود معرفی کردند، مدل همچنان در ۷۸ درصد مواقع موفق بود. در مقابل، مدل‌های سنتی در هر تلاشی شکست خوردند.

زمان آموزش نیز به طور چشمگیری کاهش یافت. سیستم جدید این کار را تنها در ۳۴ دقیقه یاد گرفت؛ در حالی که مدل‌های استاندارد به بیش از یک روز و نیم زمان نیاز داشتند.

صرفه‌جویی بزرگ در مصرف انرژی

مصرف انرژی به طور قابل توجهی کاهش یافت. آموزش مدل نمادین-عصبی تنها به یک درصد از انرژی مورد استفاده توسط یک سیستم استاندارد VLA نیاز داشت. در طول عملیات، تنها پنج درصد از انرژی مورد نیاز روش‌های سنتی را مصرف کرد. شوتز این موضوع را با فناوری‌های هوش مصنوعی روزمره مقایسه کرد. بسیاری از سیستم‌ها صرفاً سعی دارند واژه یا عمل بعدی را در یک توالی پیش‌بینی کنند و این می‌تواند به خروجی‌های نادرست یا توهم منجر شود.

انرژی مورد نیاز برای این پیش‌بینی‌ها نیز می‌تواند به طور شگفت‌آوری زیاد باشد. برای مثال، وقتی در گوگل جست‌وجو می‌کنید، خلاصه تولیدشده توسط هوش مصنوعی که در بالای صفحه نمایش داده می‌شود، ممکن است تا ۱۰۰ برابر انرژی بیشتری را نسبت به تولید فهرست لینک‌های وب‌سایت به‌نمایش‌درآمده در زیر آن مصرف کند.

با گسترش پذیرش هوش مصنوعی در صنایع گوناگون، تقاضا برای قدرت محاسباتی همچنان رو به افزایش است. شرکت‌ها در حال ساخت مراکز داده بزرگ‌تری هستند که برخی از آنها به صدها مگاوات برق نیاز دارند. در این مقیاس، یک مرکز می‌تواند به اندازه کل یک شهر کوچک انرژی مصرف کند.

این تقاضای روبه‌رشد، رقابتی را برای گسترش زیرساخت‌ها ایجاد کرده و نگرانی‌هایی را درباره ظرفیت انرژی بلندمدت و تأثیرات زیست‌محیطی ایجاد کرده است.

پژوهشگران معتقدند روش‌های کنونی که عمدتاً براساس مدل‌های زبانی بزرگ و سیستم‌های VLA ساخته شده‌اند، ممکن است در طول زمان پایدار نباشند. اگرچه این فناوری‌ها قدرتمند هستند، اما به مقادیر زیادی برق نیاز دارند و می‌توانند نتایج غیر قابل اعتمادی را تولید کنند.

هوش مصنوعی نمادین-عصبی، یک جایگزین امیدوارکننده ارائه می‌دهد. این فناوری از طریق ترکیب یادگیری ماشینی با استدلال ساختاریافته می‌تواند پایه و اساس کارآمدتر و قابل اعتمادتری را برای نسل بعدی سیستم‌های هوشمند فراهم کند.

منبع: ايسنا
شبکه‌های اجتماعی
دیدگاهتان را بنویسید