
عالم الذكاء الاصطناعي يتطور باستمرار، ولا تختلف شركة OpenAI عن إطلاق نموذجها اللغوي الأحدث، جي بي تي-4o، نسخة متقدمة من النسخة السابقة جي بي تي-4 توربو. لا يتحسن هذا الإصدار الجديد فحسب، بل يعمل على توسيع قدراته بشكل كبير ليشمل أكثر من ذلك نص e الصور، ولكن أيضًاسمعي.
تقدم OpenAI GPT-4o: ما هو وما هو قادر عليه
يوصف GPT-4o بأنه إصدار "omni" (ومن هنا جاء الحرف "o" في الاسم)، لأنه يدمج أوضاع تفاعل متعددة: نص, رؤية و الأن، صوت. يقدم هذا النموذج استجابة فورية لأسئلة المستخدمين، مما يسمح لهم بمقاطعة النظام أثناء استجابته وحتى تغيير التطبيق على طول الطريق. بالإضافة إلى ذلك، يمكنه التعرف على المشاعر في صوت المستخدم والاستجابة بشكل مناسب، وتغيير النمط العاطفي للاستجابات، بما في ذلك الاستجابات الغنائية.
قد تكون مهتمة أيضا في: ما هي النماذج اللغوية في الذكاء الاصطناعي؟
بالإضافة إلى التفاعلات الصوتية، GPT-4o يعزز بشكل كبير القدرات البصرية لـ ChatGPT. على سبيل المثال، يمكنه الآن الإجابة بسرعة على الأسئلة المتعلقة بالصور الفوتوغرافية أو لقطات الشاشة، وتحديد التفاصيل مثل العلامة التجارية للقميص أو محتويات رمز البرنامج المعروض. تخيل أنك قادر على تصوير قائمة بلغة أجنبية وتلقي الترجمة على الفور: هذا مجرد واحد من السيناريوهات المستقبلية الممكنة مع GPT-4o.
يقدم نموذج OpenAI GPT-4o الجديد تحسين الدعم لأكثر من 50 لغةمما يضمن أداءً مضاعفًا مقارنةً بـ GPT-4 Turbo ea السابق نصف السعر، مع حدود استخدام أعلى. وينتج عن ذلك تجربة مستخدم أكثر سلاسة وسهولة في الوصول إليها، مما يزيد من إمكانية استخدامها في سياقات دولية مختلفة.
التوفر والخروج
GPT-4o الآن متاح مجانًا لمستخدمي الإصدار المجاني من ChatGPT ولمشتركي الخطط المميزة، مع حدود خمسة أضعاف للرسائل. هذه التغييرات مصحوبة بتصميم متجدد لواجهة المستخدم، وأكثر سهولة وتحدثًا، و إصدار سطح المكتب لنظام التشغيل macOS، والذي سيتبعه قريبًا إصدار Windows. بالإضافة إلى ذلك، أصبح الوصول إلى الميزات المدفوعة مسبقًا، مثل القدرة على "تذكر" تفضيلات المستخدم، ممتدًا الآن ليشمل جميع المستخدمين.