Перенос стиля это процесс преобразования стиля исходного к стилю выбранного изображения и опирается на Сверточный тип сети (CNN), при этом заранее обученной, поэтому многое будет зависеть от выбора данной обученной сети. Благо такие сети есть и выбирать есть из чего, но здесь будет применяться VGG-16.

Для начала необходимо подключить необходимые библиотеки

Код объявления библиотек
import time
import torch
from torch.autograd import Variable
import torch.nn as nn
import torch.nn.functional as F
from torch import optim
import torchvision
from torchvision import transforms
from io import BytesIO
from PIL import Image
from collections import OrderedDict
from google.colab import files

Затем необходимо объявить класс предварительно обученной сети VGG-16

Код класса VGG-16
class VGG16(nn.Module):
    def __init__(self, pool='max'):
        super(VGG, self).__init__()
        self.conv1_1 = nn.Conv2d(3, 64, kernel_size=3, padding=1)
        self.conv1_2 = nn.Conv2d(64, 64, kernel_size=3, padding=1)
        self.conv2_1 = nn.Conv2d(64, 128, kernel_size=3, padding=1)
        self.conv2_2 = nn.Conv2d(128, 128, kernel_size=3, padding=1)
        self.conv3_1 = nn.Conv2d(128, 256, kernel_size=3, padding=1)
        self.conv3_2 = nn.Conv2d(256, 256, kernel_size=3, padding=1)
        self.conv3_3 = nn.Conv2d(256, 256, kernel_size=3, padding=1)
        self.conv3_4 = nn.Conv2d(256, 256, kernel_size=3, padding=1)
        self.conv4_1 = nn.Conv2d(256, 512, kernel_size=3, padding=1)
        self.conv4_2 = nn.Conv2d(512, 512, kernel_size=3, padding=1)
        self.conv4_3 = nn.Conv2d(512, 512, kernel_size=3, padding=1)
        self.conv4_4 = nn.Conv2d(512, 512, kernel_size=3, padding=1)
        self.conv5_1 = nn.Conv2d(512, 512, kernel_size=3, padding=1)
        self.conv5_2 = nn.Conv2d(512, 512, kernel_size=3, padding=1)
        self.conv5_3 = nn.Conv2d(512, 512, kernel_size=3, padding=1)
        self.conv5_4 = nn.Conv2d(512, 512, kernel_size=3, padding=1)
        if pool == 'max':
            self.pool1 = nn.MaxPool2d(kernel_size=2, stride=2)
            self.pool2 = nn.MaxPool2d(kernel_size=2, stride=2)
            self.pool3 = nn.MaxPool2d(kernel_size=2, stride=2)
            self.pool4 = nn.MaxPool2d(kernel_size=2, stride=2)
            self.pool5 = nn.MaxPool2d(kernel_size=2, stride=2)
        elif pool == 'avg':
            self.pool1 = nn.AvgPool2d(kernel_size=2, stride=2)
            self.pool2 = nn.AvgPool2d(kernel_size=2, stride=2)
            self.pool3 = nn.AvgPool2d(kernel_size=2, stride=2)
            self.pool4 = nn.AvgPool2d(kernel_size=2, stride=2)
            self.pool5 = nn.AvgPool2d(kernel_size=2, stride=2)
            
    def forward(self, x, layers):
        out = {}
        out['relu1_1'] = F.relu(self.conv1_1(x))
        out['relu1_2'] = F.relu(self.conv1_2(out['relu1_1']))
        out['pool1'] = self.pool1(out['relu1_2'])
        out['relu2_1'] = F.relu(self.conv2_1(out['pool1']))
        out['relu2_2'] = F.relu(self.conv2_2(out['relu2_1']))
        out['pool2'] = self.pool2(out['relu2_2'])
        out['relu3_1'] = F.relu(self.conv3_1(out['pool2']))
        out['relu3_2'] = F.relu(self.conv3_2(out['relu3_1']))
        out['relu3_3'] = F.relu(self.conv3_3(out['relu3_2']))
        out['relu3_4'] = F.relu(self.conv3_4(out['relu3_3']))
        out['pool3'] = self.pool3(out['relu3_4'])
        out['relu4_1'] = F.relu(self.conv4_1(out['pool3']))
        out['relu4_2'] = F.relu(self.conv4_2(out['relu4_1']))
        out['relu4_3'] = F.relu(self.conv4_3(out['relu4_2']))
        out['relu4_4'] = F.relu(self.conv4_4(out['relu4_3']))
        out['pool4'] = self.pool4(out['relu4_4'])
        out['relu5_1'] = F.relu(self.conv5_1(out['pool4']))
        out['relu5_2'] = F.relu(self.conv5_2(out['relu5_1']))
        out['relu5_3'] = F.relu(self.conv5_3(out['relu5_2']))
        out['relu5_4'] = F.relu(self.conv5_4(out['relu5_3']))
        out['pool5'] = self.pool5(out['relu5_4'])
        return [out[key] for key in layers]


Далее необходимо скачать и загрузить веса VGG-16, предварительно перенеся ее на видеокарту, если есть такая возможность

vgg = VGG16()
vgg.load_state_dict(torch.load('vgg_conv.pth'))
for param in vgg.parameters():
    param.requires_grad = False
if torch.cuda.is_available():
    vgg.cuda()

Где vgg_conv.pth это название файла с весами сети.

При этом необходимо отключить обучение параметров у сети иначе можно испортить загруженные веса, которые не один день обучались.

После объявляются функции преобразования входных изображений, чтобы привести их к виду изображений, на которых обучалась сети VGG-16

Код функций преобразования входных изображений
SIZE_IMAGE = 512
to_mean_tensor = transforms.Compose([transforms.Resize(SIZE_IMAGE),      
                           transforms.ToTensor(),
                           transforms.Lambda(lambda x: x[torch.LongTensor([2,1,0])]),       
                           transforms.Normalize(mean=[0.40760392, 0.45795686, 0.48501961],   
                                                std=[1,1,1]),
                           transforms.Lambda(lambda x: x.mul_(255)),
                          ])

to_unmean_tensor = transforms.Compose([transforms.Lambda(lambda x: x.div_(255)),
                                        transforms.Normalize(mean=[-0.40760392, -0.45795686, -0.48501961],  
                                                std=[1,1,1]),
                                        transforms.Lambda(lambda x: x[torch.LongTensor([2,1,0])]), 
                          ])
to_image = transforms.Compose([transforms.ToPILImage()])
normalize_image = lambda t: to_image(torch.clamp(to_unmean_tensor(t), min=0, max=1))

to_mean_tensor — прямое преобразование
normalize_image — обратное преобразование

Далее объявляются классы матрицы Грама и функции потерь для матрицы Грама

class GramMatrix(nn.Module):
    def forward(self, input):
        b,c,h,w = input.size()
        F = input.view(b, c, h*w)
        G = torch.bmm(F, F.transpose(1,2)) 
        G.div_(h*w)
        return G
class GramMSELoss(nn.Module):
    def forward(self, input, target):
        out = nn.MSELoss()(GramMatrix()(input), target)
        return out

Матрица Грама служит для устранения пространственной привязки деталей стиля.

Затем идет процесс загрузки и преобразования исходного и стилевого изображений

imgs = [style_img, content_img]
imgs_torch = [to_mean_tensor(img) for img in imgs]
if torch.cuda.is_available():
    imgs_torch = [Variable(img.unsqueeze(0).cuda()) for img in imgs_torch]
else:
    imgs_torch = [Variable(img.unsqueeze(0)) for img in imgs_torch]
style_image, content_image = imgs_torch
opt_img = Variable(content_image.data.clone(), requires_grad=True)

Где style_img и content_img это входные изображения, которые преобразуются в тензоры и переносятся по возможности на видеокарту, а в opt_img будет содержаться результат переноса стиля, при этом в качестве начального берется исходное изображение.

Далее идет процесс выбора слоев, задания весов и инициализаций функций потерь

Код весов и потерь
style_layers = ['relu1_1','relu2_1','relu3_1','relu4_1', 'relu5_1'] 
content_layers = ['relu4_2']
loss_layers = style_layers + content_layers
losses = [GramMSELoss()] * len(style_layers) + [nn.MSELoss()] * len(content_layers)
if torch.cuda.is_available():
    losses = [loss.cuda() for loss in losses]
style_weights = [1e3/n**2 for n in [64,128,256,512,512]]
content_weights = [1e0]
weights = style_weights + content_weights
style_targets = [GramMatrix()(A).detach() for A in vgg(style_image, style_layers)]
content_targets = [A.detach() for A in vgg(content_image, content_layers)]
targets = style_targets + content_targets


И последний этап это сам процесс переноса стиля
epochs = 300
opt = optim.LBFGS([opt_img])
def step_opt():
  opt.zero_grad()
  out_layers = vgg(opt_img, loss_layers)
  layer_losses = []
  for j, out in enumerate(out_layers):
    layer_losses.append(weights[j] * losses[j](out, targets[j]))
  loss = sum(layer_losses)
  loss.backward() 
  return loss
for i in range(0, epochs+1):
  loss = opt.step(step_opt)

В заключении можно добавить несколько примеров:





























Комментарии (12)


  1. epishman
    26.05.2019 16:00
    +2

    Шикарная статья, общественность категорически требует теста:
    — стайл имидж = фото мужчины
    — контент имидж = фото женщины
    — аутпут имидж = ???


    1. Arseny_Info
      26.05.2019 22:13

      Ничего интересного не будет: переносимый «стиль» — это слишком низкоуровневые цвета и текстуры.


    1. nikkolla
      28.05.2019 13:05

      Скорее всего, что-то близкое к исходному изображению, разве что цвета поплывут. Стиль в понимании этой статьи — скорее текстуры и их комбинации. А виды одежды и макияжа — это структуры несколькими уровнями выше.


    1. Daleksey Автор
      28.05.2019 13:11

      nikkolla прав, здесь переносится только стиль изображения, например, если лицо мужчины будет нарисовано красками и оно стилевое изображение, а женское лицо обычная фотография, то при переносе стиля на женское фото получится женское фото нарисованное красками, надеюсь понятно объяснил


    1. Daleksey Автор
      28.05.2019 13:46

      epishman, добавил пример с мужским и женским лицом


      1. epishman
        28.05.2019 15:11

        Класс, теперь более понятна суть алгоритма! Хотя я честно надеялся, что борода перенесется, с котом у Вас зачетно получилось…


        1. Daleksey Автор
          28.05.2019 16:05

          Спасибо, но то что вы хотите это немного другая задача, которую тоже уже успешно решили, можете посмотреть на результат Style-Based Generator GAN


          1. epishman
            28.05.2019 16:27

            Спасибо, я уже понял что нейронка нужна другая :)


  1. kertar
    28.05.2019 13:12

    Все примеры нейросетей для стиля или раскраски ч/б изображений требуют фиксированный размер входных данных. Что делать если нужно обработать большую картинку?

    Преобразование в Lab проблему не решает, так как хоть глаз и менее чувствителен к a и b каналам, низкое их разрешение всё равно заметно. Если обрабатывать кусками, каждый кусок обработается по разному и единой картины не получится.


    1. Daleksey Автор
      28.05.2019 13:21

      Чем выше ставите размер, тем выше качество переноса получится, но тут нужно следить за памятью, её затраты сильно возрастают по мере увеличения размеров входных изображений. Что касается большой картинки, я думаю там проблем не должно быть.


    1. Daleksey Автор
      29.05.2019 13:55

      kertar, добавил пример, стилевая картинка меньше исходной и при этом исходная не квадратная и стиль переносится довольно качественно


      1. kertar
        30.05.2019 13:23

        Спасибо за пример, но вы, видимо, не обновили код и там всё равно ресайз до 512, и я не вижу ресайза обратно :)

        Можете пояснить что вы поменяли для этого примера? Просто убрали ресайз? И почему размер исходного и обработанного изображений разный?