В начале 2023 года я рассказывал о четвертой версии Midjourney, а затем — о альфа-доступе к пятой. Сейчас актуальная версия — 5.2, а недавно вышла альфа шестой.

Сохраним хронологию и посмотрим, что нового в пятой версии. Спойлер: разработчики уделили внимание не только процессу генерации, но и удобству пользователя.

Под катом рассказываю о нововведениях и различиях между релиз- и альфа-версией. Конечно, с иллюстрациями. Если формат окажется интересным, протестирую шестую Midjourney и напишу о ней в Академии Selectel. Подробности под катом!

Генерации


Хаос и странности




Запрос: woman portrait soft sunset light --seed 2131932819, --chaos 0 (слева), --chaos 100 (справа)

В версии 5.2 появилось два параметра, которые влияют на эстетическую составляющую сгенерированных изображений.

  • --chaos или --c. Принимает значение от 0 до 100. По умолчанию равен 0. Чем больше значение, тем более непохожими могут быть изображения в сгенерированной сетке.
  • Экспериментальный параметр --weird. Принимает значение от 0 до 3000. По умолчанию равен 0. Чем больше, тем более странной будет генерация.


Запрос: woman portrait soft sunset light --seed 2131932819 --weird 3000 (слева, справа).

Параметр weird полностью соответствует названию не только из-за странных картинок, но и отсутствия детерминированности. Несовместимость с параметром seed и, как следствие, генерация разных изображений по одному «зерну» заявлена в документации.

Стоимость подписки на месяц не изменилась и составляет $30. Этот тарифный план включает 15 часов генерации в приоритетном режиме и безлимит в пониженном приоритете. Параллельно можно запускать до трех генераций.

Частичная генерация



Запрос: cat --seed 1123391209 (слева, справа)

В Midjourney существенно расширили функциональность для обработки изображений после первичной генерации. Сегодня доступны такие опции:

  • Vary (Strong) — генерирует новое изображение с опорой на текущее;
  • Vary (Subtle) — генерирует новое изображение, схожее по композиции и стилю, но более детализированное;
  • Vary (Region) — исправляет фрагменты;
  • Upscale (2x) / Upscale (4x) — увеличивают ширину и высоту изображения в указанное количество раз. Исходное изображение (1024x1024) можно увеличить до 2048x2048 или 4096x4096 соответственно;
  • Zoom Out (2x, 1.5x, Custom) — генерирует «рамку» вокруг исходного изображения, будто мы удаляемся назад;
  • Pan (⬅️➡️⬆️⬇️) — «продлевает» изображение в указанную сторону.


Пример: изменение фона.

Ура — в списке доступна самая желаемая функция: теперь можно перерисовать отдельные фрагменты изображений. При нажатии на кнопку Vary (Region) открывается редактор, в котором можно выделить прямоугольную или произвольную область и отредактировать запрос. Правда, текущий редактор не самый удобный.

  • Изображение нельзя увеличить.
  • Выделение произвольной области не прощает ошибок. В случае «неровности» проще стереть и нарисовать заново.
  • Выделенную область нельзя стереть, можно только отменить кнопкой Undo в верхнем левом углу.

Однако функция перерисовки уже есть — этого пока достаточно. Уверен, в будущем редактор станет более удобным. Главное, что это не единственная функция, которой может похвастаться пятая версия.


Отличия Subtle и Strong. Источник.

По умолчанию кнопки Vary (Strong) и Vary (Subtle) изменяют изображение по своему усмотрению, но через команду /settings можно включить режим Remix. Это позволит уточнить запрос для перегенерации.

Возможно, эти тексты тоже вас заинтересуют:

Революция или косметические изменения? Новые поколения серверных процессоров Intel
Процессоры, диски, оперативка — топовое железо 2023 года
Как создать веб-приложение на базе Telegram Mini Apps

Видео


В четвертой версии алгоритма меня разочаровало, что отключили параметр --video. Я даже уточнил у поддержки и получил ответ, что такой функциональности «нет и не будет». Но что-то поменялось, этот параметр вернулся и работает для всех модификаций пятой версии модели.

Кроме того, в Midjourney v5 создавать видео можно не только для первичных генераций, но и вариаций. Если изначальный запрос содержит параметр --video, все перегенерации будут с видео.



Массовые генерации


Массовые операции — это еще одна функция, за которую хвалили Stable Diffusion. Теперь она доступна в Midjourney.

Дисклеймер: команды ниже запускают множество параллельных запросов, каждый из которых тарифицируется по отдельности.

Комбинации



Midjourney реализует синтаксис для создания комбинаций при запросе.

Что важно учитывать:

  • В фигурных скобках через запятую перечисляются варианты;
  • Запятая в варианте экранируется обратным слэшем;
  • Вариант может быть вложенным списком вариантов;
  • Если в запросе несколько списков, используется их декартово произведение;
  • Варьировать можно все: ссылки на изображения, части запроса или параметры.

Например, запрос /imagine A {sculpture, painting} of a {seagull {on a pier, on a beach}, poodle {on a sofa, in a truck}} превратится в следующие команды:

/imagine A sculpture of a seagull on a pier.
/imagine A sculpture of a seagull on a beach.
/imagine A sculpture of a poodle on a sofa.
/imagine A sculpture of a poodle in a truck.
/imagine A painting of a seagull on a pier.
/imagine A painting of a seagull on a beach.
/imagine A painting of a poodle on a sofa.
/imagine A painting of a poodle in a truck.

Если в команде будет синтаксис комбинаций, нужно будет подтвердить действия. При этом в диалоге можно посмотреть, как именно раскрылись указанные комбинации.

Тюнер стилей



Тюнер стилей (style tuner) — это необычный и дорогой инструмент для создания визуального стиля на основе опроса.

Алгоритм работы:

  1. Пользователь вводит команду /tune с желаемым запросом;
  2. Midjourney уточняет количество стилей: 16, 32, 64 или 128 — генерация одного стиля занимает примерно 0.01 час на GPU;
  3. В течение двух минут будет сгенерирована ссылка на тюнер — например, такая;
  4. Пользователь выбирает понравившиеся стили одним из двух вариантов:
  1. Даны пары изображений, нужно выбрать наиболее симпатичное. Если оба изображения не нравятся, можно не выбирать;
  2. Даны все изображения в случайном порядке. Необходимо выбрать понравившиеся.
  1. Тюнер генерирует уникальный код, который можно использовать в запросах. Например, так: /imagine cat --style wi1MSMe3ruIbeSp0L8bt6T.



Пример тюнера в режиме «все изображения в случайном порядке».

Входные параметры для создания тюнера наталкивают на вопрос: можно ли использовать коды стилей в других запросах? Ответ: да, но это может привести к необычным результатам.

Тюнер стилей доступен только для fast-генерации, так что это дорогое удовольствие. Как можно бюджетно воспользоваться этой функциональностью?

  • Используйте случайные стили. Например, параметр --style random-X-Y, где X — это количество стилей (16, 32, 64 или 128), а Y — это процент выбранных стилей (если не указать, то по умолчанию 75%).
  • Выполните команду /tune. Если кто-то уже создавал тюнер с таким же запросом, бот предложит ссылки.
  • Подглядите коды стилей у других пользователей. Код стиля можно подставить в ссылку https://tuner.midjourney.com/code/<код стиля>. Однако этот способ не работает для кодов, которые сгенерированы случайным образом.

Тюнер стилей совместим с параметром chaos, но не работает с параметром weird.

Работа с текстом


img2txt


Один из интересных подходов для генерации схожих изображений — конвертация изображения в текст с последующей генерацией на основе последнего.


Арты Culpeo Fox, гном из Half-Life и Джонни Сильверхенд.

Для описания изображения в Midjourney есть команда /describe, которая принимает на вход файл. В результате возвращает четыре варианта описания, которые можно отредактировать и отправить на генерацию.

Токенайзер



Ранее я затрагивал тему значимости определенных слов при генерации изображений. Тогда это было скорее наблюдение, а сейчас для этого есть отдельная команда — /shorten. Она возвращает список важных токенов, которые повлияют на генерацию, а также сокращенные варианты пользовательских запросов.


Кнопка Show Details позволяет посмотреть веса токенов.

Интересное наблюдение: в запросе portrait of beautiful woman токенайзер считает лишним слово woman. И если запрос состоит исключительно из portrait, то Midjourney в 100% случаев сгенерирует портрет девушки.

Изменение на сайте



Сайт midjourney.com — это галерея пользовательских изображений. Раньше она решала вопрос доступа к своим генерациям лишь частично и сохраняла лишь таблицы изображений, а одиночные картинки загружались только после апскейлинга. Так что «вырезать» четвертинку все равно нужно было вручную. Сейчас эту проблему исправили: все изображения, в том числе со старых версий Midjourney, в галерее доступны раздельно.

На скриншоте выше видно интригующую заглушку. Кажется, интерфейс генерации изображений появится в веб-интерфейсе! Документация разделилась на две ветки: Current и Legacy. При этом Legacy — это новая краткая документация по моделям ранних версий, а не просто «свалка» прошлогодней документации. Что из этого получится — увидим в будущем.

Если вам интересно читать топики о программировании, Telegram, играх и других технологиях, подписывайтесь на мой канал, где периодически пишу на разные темы. А еще — делитесь мнением о пятой версии Midjourney в комментариях.

Комментарии (6)


  1. Darksa
    05.01.2024 11:25
    +2

    Отличный обзор изменений, спасибо! Добавил в закладки.


  1. Tzimie
    05.01.2024 11:25

    Странно что при том, насколько хорошо ChatGPT понимает смысл текста, рисовальщики как я вижу просто выбирают существительные, прилагательные и все это смешивают

    Например, на запросы A in hat and B шапка оказывается рандомно на A, B или на обоих. О боже сложных запросах и говорить нечего. Но рисует красиво


    1. acc0unt
      05.01.2024 11:25
      +3

      Потому что рисующие ИИ чаще всего построены на основе довольно старенького CLIP.

      При обучении генеративного ИИ датасет из изображений пропускается через CLIP для генерации текста. Именно по этим парам изображение-текст генеративный ИИ учится соотносить текст и изображения. И чаще всего используемая версия CLIP очень хорошо распознаёт объекты, но плохо распознаёт и выделяет отношения между ними.

      В результате обученный на данных из CLIP генеративный ИИ наследует это слепое пятно.

      Уже есть модели вроде Dall-E 3, у которых понимание отношений ощутимо лучше. И люди с относительно маленькими датасетами в файнтюне добиваются из существующих моделей понимания отношений - в узких пределах.


  1. AndreySitaev
    05.01.2024 11:25
    +1

    Месяц назад снова оплатил подписку и попросил Midjourney нарисовать порося из шоколада.
    Результат каждый раз выходил полностью неудовлетворительным после нескольких попыток - свиная голова на подносе, шоколад и еще что-то непонятное по-отдельности.

    В ноябре 2022-го года тот же самый запрос выдавал гораздо более релевантные результаты.


    1. Shannon
      05.01.2024 11:25

      Свинья из сейбла удивлена, что у миджорни с этим проблема:

      bluePencilXL_v031
      bluePencilXL_v031


      1. Kirsch
        05.01.2024 11:25
        +5

        Ну или количеству своих ног удивлена :)