👤 Google научила нейросеть переносить портреты в новое окружение и реалистично подстраивать освещение.
Сперва алгоритм отделяет изображение человека от фона и помещает его на новый. Затем нейросети анализируют освещение на портрете и заднем плане, создают карты света окружения и окружения, а после подстраивают их друг под друга.
📸 Для обучения алгоритма разработчики воспользовались данными, собранными для другого исследования. Они построили сферический павильон, установили в нём 331 светодиодный блок освещения, 42 обычных камер и 16 камер глубины. Затем они запечатлели в конструкции 70 добровольцев разного пола, возраста и цвета кожи. В итоге исследователи получили около 8 млн портретов с разным освещением.
О том, где планируют использовать алгоритм разработчики не сообщили. Подробней о нем расскажут на конференции SIGGRAPH 2021.
#Google
Сперва алгоритм отделяет изображение человека от фона и помещает его на новый. Затем нейросети анализируют освещение на портрете и заднем плане, создают карты света окружения и окружения, а после подстраивают их друг под друга.
📸 Для обучения алгоритма разработчики воспользовались данными, собранными для другого исследования. Они построили сферический павильон, установили в нём 331 светодиодный блок освещения, 42 обычных камер и 16 камер глубины. Затем они запечатлели в конструкции 70 добровольцев разного пола, возраста и цвета кожи. В итоге исследователи получили около 8 млн портретов с разным освещением.
О том, где планируют использовать алгоритм разработчики не сообщили. Подробней о нем расскажут на конференции SIGGRAPH 2021.