
Apple представила функции для создания «копии» своего голоса и озвучки сообщений во время звонков
Они предназначены для людей с ограниченными возможностями. Компания обещает не собирать голосовые данные пользователей.
Компания представила функции, которые добавят в предстоящие версии iOS, iPadOS и macOS. Они предназначены для людей с нарушениями зрения, слуха и когнитивных способностей. Функции станут доступны до конца 2023 года.
На всех устройствах Apple появится функция Live Speech («Живая Речь»).
Пользователи смогут набирать текст сообщения во время звонка по Face Time или личного разговора, а система его озвучит.
Для тех, кто рискует потерять способность разговаривать из-за болезни, будет работать функция Personal Voice («Персональный голос»), которая синтезирует речь на основе голоса пользователя. Для создания «копии» голоса нужно в течение 15 минут зачитывать в микрофон специальные подсказки. Функция работает на основе алгоритмов машинного обучения и интегрируется с «Живой речью»: для озвучивания текста можно будет использовать собственный голос.
На начальном этапе функция будет работать только с английским языком на устройствах с процессорами Apple. Компания утверждает, что не собирает голосовые данные, а все вычисления производятся локально на устройстве.
💻 Новости AI • Бот MidJorney
Они предназначены для людей с ограниченными возможностями. Компания обещает не собирать голосовые данные пользователей.
Компания представила функции, которые добавят в предстоящие версии iOS, iPadOS и macOS. Они предназначены для людей с нарушениями зрения, слуха и когнитивных способностей. Функции станут доступны до конца 2023 года.
На всех устройствах Apple появится функция Live Speech («Живая Речь»).
Пользователи смогут набирать текст сообщения во время звонка по Face Time или личного разговора, а система его озвучит.
Для тех, кто рискует потерять способность разговаривать из-за болезни, будет работать функция Personal Voice («Персональный голос»), которая синтезирует речь на основе голоса пользователя. Для создания «копии» голоса нужно в течение 15 минут зачитывать в микрофон специальные подсказки. Функция работает на основе алгоритмов машинного обучения и интегрируется с «Живой речью»: для озвучивания текста можно будет использовать собственный голос.
На начальном этапе функция будет работать только с английским языком на устройствах с процессорами Apple. Компания утверждает, что не собирает голосовые данные, а все вычисления производятся локально на устройстве.