Наткнулся на интересное видео 😎



В нем показали, что могло бы быть, если бы зум на камере улавливал еще и звук.



Начал думать. "А автор просто нашел в интернете подходящие звуки и добавил их на монтаже, давал ИИ картинку, просил описать, что там происходит и генерировал звуки или просто создавал их по фрагменту видео?" 🤔



А потом начал думать еще дальше, такую технологию ведь действительно реально будет внедрить в скором времени. Как раз таки одним из способов, описанным выше. Чтобы во время зума, ИИ, улавливал картинку и подставлял предполагаемые звуки.



Вопрос в том, какую нагрузку на процессор это бы создавало? Но, зум с улавливанием звука точно бы стал достойным нововведением в смартфонах, в сравнении с тем, что пытаются впихнуть.



И еще один вопрос мне не дает покоя. Где сняли такое количество одновременно проходящих концертов?