Что нам показали Google и OpenAI



Сначала расскажу про свои впечатления. Есть такое ощущение, что обе компании очень спешили показать что-то к определённой дате, но функционал до конца не был допилен и они впопыхах старались хоть что-то представить.



Объясню, "ChatGPT-4 o" уже доступен, но некоторые функции будут "чуть позже", а в Гугле почти все в принципе, выпустят когда-то в 24 году, кроме умного поиска, который сейчас доступен только в США.



Но несмотря на это анонсированные продукты открывают чуть ли не новый мир.



Самое интересное в обеих компаниях это анализ видеоряда и составление ответа исходя из него, в ChatGPT еще и в формате стрима. У последних в принципе примечательна то, что модель обучалась и на тексте, и на видео и на изображениях.



Плюсом к этому очень интересно звучит, что в desktop-версии ChatGPT нейросеть в любой момент может посмотреть Ваш экран. Даже для обычного пользователя это открывает ооочень много возможностей, например, в анализе кода или математических формул. НО!!! Представьте, что с этим смогут делать разработчики, которые настраивают индивидуальные решения для других компаний. Пока сложно представить, что именно придумают, но, поверьте, умельцы найдутся.



Но и Google не оставил в стороне разработчиков. Они анонсировали Firebase Genkit - фреймворк с открытым исходным кодом, позволяющий разработчикам быстро интегрировать ИИ в свои приложения на JavaScript и TypeScript. Но когда выйдет тоже непонятно.



Если подводить итог, то OpenAI сейчас выглядит выигрышнее, их продуктом уже можно почти в полной мере попользоваться, да и презентация у них вышла более аутентичнее, что-то в духе Apple со Стивом Джобсом.



Ждем шагов от Google, а я буду готовиться к тому, чтобы рассказать о том, как их можно будет "пощупать" и что с их помощью делать.