Несколько мыслей о новинках OpenAI и Google
Будущее ИИ — не в самих моделях, а в том, что они могут сделать для пользователя. Эти слова прозвучали на презентации Google, но они хорошо отражают суть обоих событий. Модели уже не так сильно поражают достижениями в бенчмарк-тестах и числом параметров, но многие продукты с презентаций помогут использовать эти модели по-новому.
Персональный помощник, с которым общаются голосом и демонстрацией видео — новый основной сценарий для нейросетей. С этим связан и упор обновленных моделей на мультимодальность, чтобы обрабатывать аудио- и видеоинформацию, и способности некоторых моделей работать локально на устройстве, способности работать быстро, чтобы лучше имитировать человеческое общение
Компании очень хотят бесшовно встроиться в существующие персональные устройства. Работа GPT-4o как персонального помощника во многом ориентирована на смартфоны — именно с них удобно общаться по аудио и видео. То же самое касается Project Astra и режима Gemini Live. Также Google показал новые ИИ-функции для Android. Нас ждет все больше нового пользовательского опыта на смартфонах.
Поэтому до принципиально новых ИИ-устройств все еще далеко. Намеки на очки со встроенным ИИ мы увидели в презентации Google, но конкретики по продукту не прозвучало. В дни презентаций появилась информация, что Meta* работает над ИИ-наушниками со встроенными камерами — и там все тоже на очень ранней стадии.
Лучше — это не только больше. Как уже написали, разработчикам интересно сделать не только модель с максимальным числом параметров, но и небольшие модели под определенные сценарии использования. А еще — сделать модели быстрее, как Gemini 1.5 Flash, и дешевле, как GPT-4o.
Google все еще в позиции догоняющего. Если главную новинку OpenAI можно было протестировать уже в день презентации, то основные продукты Google — до сих пор на уровне анонсов. Более того, Google сконцентрировался на создании конкурентов уже известным продуктам OpenAI: Veo против Sora, Imagen 3 против Dall-E 3. Только в основной стезе, интернет-поиске, Google еще впереди OpenAI.
Пока очень мало сказано про ИИ-агентов. Общие слова на эту тему прозвучали на презентации Google, зачатки агентности можно увидеть в новых функциях для Gmail. Но, вероятно, текущие разработки компаний пока не позволяют реализовать агентность на достойном бигтехов уровне.
Много возможностей OpenAI стали бесплатными — но компания найдет, как заработать. Из очевидного — хоть GPT-4o и стала доступной даже без регистрации, но лимиты на число запросов вряд ли позволят раскрыться ей полностью, так что число подписчиков может и подрасти. Из менее очевидного: в сценарии персонального ассистента пользователи будут делиться с OpenAI еще большим количеством персональных данных, а ведь именно данные — главная ценность для ИИ-компании.
*Организация, запрещенная на территории РФ
Будущее ИИ — не в самих моделях, а в том, что они могут сделать для пользователя. Эти слова прозвучали на презентации Google, но они хорошо отражают суть обоих событий. Модели уже не так сильно поражают достижениями в бенчмарк-тестах и числом параметров, но многие продукты с презентаций помогут использовать эти модели по-новому.
Персональный помощник, с которым общаются голосом и демонстрацией видео — новый основной сценарий для нейросетей. С этим связан и упор обновленных моделей на мультимодальность, чтобы обрабатывать аудио- и видеоинформацию, и способности некоторых моделей работать локально на устройстве, способности работать быстро, чтобы лучше имитировать человеческое общение
Компании очень хотят бесшовно встроиться в существующие персональные устройства. Работа GPT-4o как персонального помощника во многом ориентирована на смартфоны — именно с них удобно общаться по аудио и видео. То же самое касается Project Astra и режима Gemini Live. Также Google показал новые ИИ-функции для Android. Нас ждет все больше нового пользовательского опыта на смартфонах.
Поэтому до принципиально новых ИИ-устройств все еще далеко. Намеки на очки со встроенным ИИ мы увидели в презентации Google, но конкретики по продукту не прозвучало. В дни презентаций появилась информация, что Meta* работает над ИИ-наушниками со встроенными камерами — и там все тоже на очень ранней стадии.
Лучше — это не только больше. Как уже написали, разработчикам интересно сделать не только модель с максимальным числом параметров, но и небольшие модели под определенные сценарии использования. А еще — сделать модели быстрее, как Gemini 1.5 Flash, и дешевле, как GPT-4o.
Google все еще в позиции догоняющего. Если главную новинку OpenAI можно было протестировать уже в день презентации, то основные продукты Google — до сих пор на уровне анонсов. Более того, Google сконцентрировался на создании конкурентов уже известным продуктам OpenAI: Veo против Sora, Imagen 3 против Dall-E 3. Только в основной стезе, интернет-поиске, Google еще впереди OpenAI.
Пока очень мало сказано про ИИ-агентов. Общие слова на эту тему прозвучали на презентации Google, зачатки агентности можно увидеть в новых функциях для Gmail. Но, вероятно, текущие разработки компаний пока не позволяют реализовать агентность на достойном бигтехов уровне.
Много возможностей OpenAI стали бесплатными — но компания найдет, как заработать. Из очевидного — хоть GPT-4o и стала доступной даже без регистрации, но лимиты на число запросов вряд ли позволят раскрыться ей полностью, так что число подписчиков может и подрасти. Из менее очевидного: в сценарии персонального ассистента пользователи будут делиться с OpenAI еще большим количеством персональных данных, а ведь именно данные — главная ценность для ИИ-компании.
*Организация, запрещенная на территории РФ