#новость



Всем привет :)



Надеюсь, никого не разбудила!



Но не могла не поделиться)



Пару часов назад закончилось выступление Миры Мурати, технического директора OpenAI.



Она поделилась последними обновлениями.



😳 Главная новость - запуск новой флагманской модели GPT-4O (сокращенно от Omni).



Новая модель улучшена по сравнению с GPT4 Tubro.



😦 По факту это Омнимодель, которая обучена одновременно на тексте, изображениях и видео.



То есть ей присуща мультимодальность, которую когда-то нам презентовали в Google:)



По API GPT-4O тоже уже доступна.

Причем в 2 раза выше скорость и в 1,7 раз дешевле предыдущей версии.



GPT-4 Omni обучена понимать эмоции и тон голоса, что делает взаимодействие более естественным.



😊 Она распознает движения и даже может посмеяться в ответ:)



По факту ощущение общения с реальным человеком.



🥴 Модель поддерживает мгновенный перевод на разные языки!



И это, конечно, больше всего меня поразило. По факту синхронный переводчик.



А еще она может определять эмоции по видео.



И да, она доступна всем бесплатно)!

В течение нескольких недель будет появляться.



👧 Подробнее можно посмотреть здесь.