ChatGPT заговорит пятью голосами
OpenAI в течение двух недель выкатит голосовой интерфейс для ChatGPT, пишет Bloomberg
На вопросы пользователя будут отвечать 5 разных голосов. В перспективе пользователь сможет создать и “личный” голос. Чатбот может, к примеру, прочитать сгенерированную сказку на ночь или описать решение математической задачи по ее фото.
Возможность голосового управления в ChatGPT уже есть, но вот отвечать человеку голосом бот до сих пор не мог.
Как это меняет бизнес-решения?
Раньше внедрение голосовых ассистентов в поддержку, продажи, обозвоны выглядело так: голосовые волны на вход транскрибируются в текст, запрос отправляется в ChatGPT, генерируется текст, текст озвучивается сторонним приложением. Это 2-3 разных интерфейса, которые надо настроить говорить друг с другом через API. И если что-то сломается в одном месте, рухнет вся конструкция. А из-за такого многоэтапного процесса пользователи догадывались, что звонит робот, требовали оператора, нагрузка росла.
Теперь если OpenAI предоставит разработчикам возможность интеграции озвучки через API в свои решения, это может перевернуть игру и дать преимущество одним стартапам и разорить пару десятков других ИИ-звонилок.
P.S. Кстати, в моем личном ChatGPT уже можно вводить сообщения голосом. Надо ли мне сделать опцию озвучки своим голосом? Поставьте 🔥, если да)
OpenAI в течение двух недель выкатит голосовой интерфейс для ChatGPT, пишет Bloomberg
На вопросы пользователя будут отвечать 5 разных голосов. В перспективе пользователь сможет создать и “личный” голос. Чатбот может, к примеру, прочитать сгенерированную сказку на ночь или описать решение математической задачи по ее фото.
Возможность голосового управления в ChatGPT уже есть, но вот отвечать человеку голосом бот до сих пор не мог.
Как это меняет бизнес-решения?
Раньше внедрение голосовых ассистентов в поддержку, продажи, обозвоны выглядело так: голосовые волны на вход транскрибируются в текст, запрос отправляется в ChatGPT, генерируется текст, текст озвучивается сторонним приложением. Это 2-3 разных интерфейса, которые надо настроить говорить друг с другом через API. И если что-то сломается в одном месте, рухнет вся конструкция. А из-за такого многоэтапного процесса пользователи догадывались, что звонит робот, требовали оператора, нагрузка росла.
Теперь если OpenAI предоставит разработчикам возможность интеграции озвучки через API в свои решения, это может перевернуть игру и дать преимущество одним стартапам и разорить пару десятков других ИИ-звонилок.
P.S. Кстати, в моем личном ChatGPT уже можно вводить сообщения голосом. Надо ли мне сделать опцию озвучки своим голосом? Поставьте 🔥, если да)