Сотрудники Центра глубинного обучения и байесовских методов НИУ ВШЭ нашли новый подход к обучению генеративной модели StyleGAN2, повысив эффективность на четыре порядка.
В структуре StyleGAN2 есть специальные модуляции, которые позволяют входным случайным векторам контролировать семантические признаки выходного изображения. Российские специалисты предложили обучать дополнительный вектор, который определяет домен выходных изображений через те самые модуляции.
«Если дополнительно обучать только такой доменный вектор, то домен генерируемых картинок меняется так же хорошо, как если бы мы дообучали все параметры нейронной сети», — сообщает исследователь Айбек Аланов.
Новый подход позволяет сократить время обучения и используемую память при отсутствии потерь в качестве. В идеале может получиться нейросеть, имеющая меньше параметров, чем исходный генератор, но хранящая тысячи новых доменов, сообщает Naked Science.