Предвкушаю грядет волна развлекательных алгоритмов где в StyleGan подмешиваются веса из модели натренированной на других данных. В итоге получается генерировать не только сэмплы из заданного распределения (натренировал на еблетах — генерирует еблеты), но создавать морфинг стиля и низкоуровневых признаков из двух разных распределений (натренировал на еблетах и аниме — генерирует аниме еблеты). Недавно громко прошумевшая GAN которая превращает лица в диснеевских персонажей работает ровно по тому же принципу. Вот, кстати, хорошее видео с объяснением. Я даже не писал об этом потому что мне StyleGan кажется тупым и однообразным. Что уже только не генерировали, а смысла все равно не прибавилось.