صفحه نخست

سیاست

ورزشی

علم و تکنولوژی

عکس

ویدیو

راهنمای بازار

زندگی و سرگرمی

اقتصاد

جامعه

فرهنگ و هنر

جهان

صفحات داخلی

GPT-۴o به‌عنوان مدل هوش مصنوعی پرچمدار جدید OpenAI از راه رسید.
تاریخ انتشار: ۲۳:۱۴ - ۲۴ ارديبهشت ۱۴۰۳

مدل هوش مصنوعی GPT-۴o برپایه مدل پرچمدار قبلی OpenAI ساخته شده، اما از جهات مختلفی بهبود پیدا کرده است و می‌تواند برقراری ارتباط با این فناوری را ساده‌تر و پویاتر کند.

به گزارش دیجیاتو، مدل هوش مصنوعی GPT-۴o در اختیار تمام کاربران شامل کاربران سرویس رایگان و پولی این شرکت قرار می‌گیرد. قابلیت‌های متن و تصویر این مدل از امروز برای همه کاربران عرضه می‌شود، اما قابلیت جدید Voice Mode آن ابتدا به‌صورت آلفا از هفته‌های آینده برای کاربران ChatGPT Plus در دسترس قرار خواهد گرفت، و بعد به مرحله انتشار گسترده‌تر می‌رود.

«میرا موراتی»، مدیر ارشد فناوری OpenAI در مراسم امشب مدعی شد که GPT-۴o پارادایم همکاری و تعامل میان انسان و کامپیوتر را تغییر می‌دهد. او گفت این مدل بهبودیافته قادر به درک متن، صدا و تصویر است، و آن‌ها ماه‌ها برای عرضه این قابلیت‌ها برای تمام کاربران تلاش کرده‌اند.

معرفی قابلیت‌های جدید مدل هوش مصنوعی GPT-۴o

موراتی گفت بیش از ۱۰۰ میلیون نفر به‌صورت مرتب از ChatGPT استفاده می‌کنند و مدل GPT-۴o بهینه‌تر از GPT-۴ شده است. در نتیجه، این شرکت GPT‌ها یا همان چت‌بات‌های سفارشی را هم به نسخه رایگان ChatGPT می‌آورد.

API مدل هوش مصنوعی GPT-۴o دو برابر سریع‌تر و ۵۰ درصد ارزان‌تر شده و محدودیت آن ۵ برابر نسبت به GPT-۴ توربو کاهش پیدا کرده است.

با GPT-۴o می‌توانید از داده‌ها، کد‌ها و ابزار‌های بینایی استفاده کنید تا برای مثال بتوانید تصاویر را تحلیل نمایید. یکی از ارتقا‌های بزرگ این مدل جدید «گفتار زنده» است. GPT-۴o می‌تواند به خود صدا گوش بدهد، به‌جای اینکه ابتدا صدا را به متن تبدیل کند و بعد آن را بفهمد.

OpenAI در یک دمو نشان داد که این مدل چگونه می‌تواند حتی صدای تنفس کاربر را تشخیص بدهد و به او توصیه کند که با چه تکنیک‌هایی می‌تواند وضعیت تنفس خود را بهبود دهد. همچنین در این دمو به‌نظر می‌رسد که هوش مصنوعی بلافاصله پس از اتمام صدای کاربر، می‌تواند به او پاسخ بدهد. به‌علاوه، این Voice Mode جدید می‌تواند با احساسات مختلف با کاربر حرف بزند.

در یک دموی دیگر، کارمند OpenAI با دوربین موبایل خود یک معادله ریاضی را به GPT-۴o نشان داد. از هوش مصنوعی خواسته شد تا در حل این معادله به او کمک کند، اما جواب نهایی را ندهد. در پاسخ، این سیستم مراحل حل یک معادله ساده را توضیح داد و تقریباً نقش یک معلم را ایفا کرد.

مدل هوش مصنوعی بهبودیافته OpenAI حالا می‌تواند حس چهره افراد را از طریق دوربین تشخیص دهد. در بخش دیگری از دمو، یک چهره خندان به GPT-۴o نشان داده شد و این هوش مصنوعی به کاربر گفت: «نمی‌خواهی بگویی دلیل خوشحالی‌ات چیست؟»

اگرچه GPT-۴o برای کاربران رایگان نیز در دسترس قرار می‌گیرد، اما کاربران پولی می‌توانند روزانه پنج برابر بیشتر به این مدل هوش مصنوعی درخواست ارسال کنند. مدل GPT-۴o تجربه استفاده از ChatGPT را به‌طرز قابل‌توجهی ارتقا می‌دهد و بسیار سریع‌تر است. این تغییر باعث می‌شود که تجربه مکالمه با این چت‌بات طبیعی‌تر جلوه کند.

با استفاده از GPT-۴o می‌توانید منوی یک رستوران خارجی را به هوش مصنوعی نشان دهید و ترجمه آیتم‌های داخل آن را دریافت کنید. این مدل همچنین قادر به ترجمه همزمان است. OpenAI می‌گوید در آینده حتی می‌تواند یک مسابقه ورزشی زنده را به ChatGPT نشان دهید و از هوش مصنوعی بخواهید قواعد آن را به شما توضیح دهد.

OpenAI توضیح می‌دهد که کاربران رایگان ChatGPT با استفاده از GPT-۴o می‌توانند به موارد زیر دسترسی پیدا کنند:

تجربه هوشی در سطح GPT-۴

دریافت پاسخ‌های خود مدل و اطلاعات سطح وب

تجزیه‌وتحلیل داده‌ها و ساخت نمودار

گفتگو درباره تصاویر شما

آپلود فایل برای کمک به خلاصه‌سازی، نگارش یا تحلیل

کشف و استفاده از جی‌پی‌تی‌ها و جی‌پی‌تی استور

بهره‌مندی از تجربه‌ای بهتر با قابلیت حافظه

OpenAI همچنین امشب از نسخه دسکتاپ اپلیکیشن ChatGPT رونمایی و قابلیت‌های صوتی و تصویری جدیدی را برای چت‌بات خود معرفی کرد.

ارسال نظرات