نسخۀ جدید هوش مصنوعی «چت جیپیتی» با قابلیتهای شگفتانگیز/ از کمک به حل مشکلات ریاضی تا ترجمۀ همزمان 2 زبان مختلف/ ویدئو
اپنایآی از راهاندازی GPT-4o، نسخهای از مدل GPT-4 خبر داد. این مدل بسیار سریعتر است و قابلیتهای درک متن، محتوای تصویری و صوتی را بهتری دارد و برای همه رایگان است.
مدل زبانی بزرگ جدید GPT-4o امکان دیدن و بررسی محیط را به صورت آنی دارد و میتواند در مورد چهره و لباس و محیط اطراف شما نظر دهد یا کاربر سوالی در مورد چهره یا لباس از ChatGPT بپرسد.
همچنین در نسخۀ جدید کاربر میتواند از ChatGPT بخواهد که در حل مشکلات ریاضی به او کمک کند و ربات مرحلهبهمرحله به او یاد میدهد مسئله را با چه روشی حل کرده است.
ربات GPT-4o همچنین قابلیت ترجمۀ همزمان دارد؛ مثلا اگر فردی با زبان ایتالیایی کند ربات همزمان آن را برای فرد دیگر به انگلیسی ترجمه میکند.
در یک قابلیت جالب دیگر، ابن نسخۀ جدید میتواند بهصورت بداهه برای کاربر قصه بگوید! حتی میتوان با این ربات هوشمند، سنگ کاغذ قیچی بازی کرد.
هوش مصنوعی «عالمگیر» GPT-4o رونمایی شد؛ حیرتانگیز، پرسرعت و رایگان!
OpenAI مدل زبانی بزرگ جدیدی به نام GPT-4o معرفی کرد که سرعت قابل توجهی دارد و به رایگان در دسترس همه قرار میگیرد.
به گزارش زومیت، مدل زبانی بزرگ جدید GPT-4o شرکت OpenAI در جریان مراسم ویژهی این شرکت رونمایی شد. GPT-4o نسخهی اصلاحشدهی مدل زبانی GPT-4 است که بهعنوان قلب تپندهی چتبات معروف ChatGPT عمل میکند. حرف o در عبارت GPT-4o مخفف Omni به معنی عالمگیر یا جهانی است.
بر اساس گفتهی میرا موراتی، مدیر ارشد فناوری OpenAI، مدل جدید این شرکت بسیار سریعتر است و در زمینهی درک متن و محتوای تصویری و محتوای صوتی عملکرد چشمگیری از خود نشان میدهد.
OpenAI میگوید که مدل زبانی بزرگ GPT-4o به رایگان در دسترس همهی مردم قرار میگیرد، با اینحال محدودیت ظرفیت کاربران نسخهی اشتراکی پنج برابرِ کاربران نسخهی رایگان است؛ به این معنی که کاربران اشتراکی میتوانند روزانه پنج برابر درخواست بیشتر ارسال کنند.
در بخشی از مراسم OpenAI شاهد عملکرد حیرتانگیز GPT-4o در حل مسائل ریاضی و حتی درک لحن حرفزدن کاربر بودیم. قابلیت صوتی جدید GPT-4o کاملا به احساسات کاربر واکنش نشان میدهد و با لحنی صمیمی مشغول صحبتکردن و حتی داستانگفتن میشود.
سم آلتمن، مدیرعامل OpenAI، اعلام کرد که مدل GPT-4o «بهصورت ذاتی، چند حالته است.» این یعنی مدل جدید میتواند افزونبر متن، محتواهای صوتی و تصویری را تولید کند و بفهمد.
هوش مصنوعی GPT-4o مکالمات انسان و کامپیوتر را طبیعیتر میکند
توسعهدهندگانی که به GPT-4o علاقهمند هستند، میتوانند API این مدل هوش مصنوعی را با نصف قیمت GPT-4 Turbo خریداری کنند. GPT-4o بهمیزان دو برابر سریعتر از نسخهی Turbo است.
بر اساس گفتهی OpenAI، اکثر قابلیتهای مدل هوش مصنوعی جدید این شرکت بهصورت تدریجی در دسترس قرار میگیرند؛ با اینحال قابلیتهای متنی و تصویری از همین امروز در چتبات ChatGPT قابل دسترس هستند.
مدل زبانی GPT-4o قدمی در راستای طبیعیشدن تعامل انسان با کامپیوتر است و میتواند در تنها ۲۳۲ میلیثانیه (میانگین ۳۲۰ میلیثانیه)، به ورودیهای صوتی پاسخ دهد؛ OpenAI ادعا میکند که زمان پاسخدهی GPT-4o مشابه زمان پاسخدهی انسان در مکالمات روزمره است.
GPT-4o در زمینهی فهم متنهای انگلیسی و کد، همسطح نسخهی Turbo ظاهر میشود، اما ارزانتر و بسیار سریعتر است. این مدل زبانی جدید بهطور ویژه در توانایی درک محتوای بصری و صوتی تقویت شده است.
تا پیش از انتشار GPT-4o میتوانستید ازطریق قابلیت Voice Mode و با تأخیر ۲٫۸ ثانیهای (در GPT-3.5) یا ۵٫۴ ثانیهای (در GPT-4) با ChatGPT گفتوگو کنید. Voice Mode برای ارائهی این قابلیت، به سه مدل اتکا میکند: یک مدل ساده برای تبدیل صدا به متن، GPT-3.5 یا GPT-4 برای تبدیل متن به متن و در نهایت مدل سوم برای تبدیل متن به صدا.
با انتشار GPT-4o، سازوکار قابلیت صوتی ChatGPT تغییر میکند. OpenAI میگوید که یک مدل جدید توسعه داده است که بهطور کامل به متن و صدا و تصویر دسترسی دارد و سرعت بسیار بالاتری ارائه میدهد.
بر اساس گفتهی OpenAI، مدل هوش مصنوعی GPT-4o در کنار عملکرد سریع و دقیق، توجه ویژهای به ایمنی دارد و محتواهای حساس را تولید نمیکند.