Искусство вообще и музыка в частности представляется исключительно как человеческое достояние, вид духовного освоения действительности. Для создания музыки требуется вдохновение, талант, эмоции и, зачастую, много бессонных ночей, поэтому идею о нейрокомпозиторах можно назвать чистым кощунством. Или нет? За минувшие пару лет стало ясно - машины могут и картины создавать, и тексты писать, и теперь уже и музыку сочинять. И попробуй отличи творчество бездушных алгоритмов от продукта терзаний струн души человеческой.
В конце 2022 года генеративный ИИ начал новый виток восхождения по Циклу зрелости технологий (Gartner Hype Cycle) и восхитил качеством генераций с выходом в массы Chat GPT и Midjourney. Но если тексты, созданные ИИ, еще вызывали споры и скепсис, то с визуальными искусствами всё оказалось гораздо более однозначно. Midjourney и Stable Diffusion быстро показали свою мощь, особенно с появлением множества пользовательских расширений (LORA, чекпоинты и т.п.). Такие сервисы вполне могут оставить художников и иллюстраторов без работы. Во всяком случае, тех "ремесленников", что рисовали "plain vanilla" арты на заказ за 20-50 долларов.
Разумеется, художники начали бить тревогу и бойкотировать ИИ - например, авторы устроили забастовку на ArtStation по поводу того, что площадку наводнили работы, сгенерированные нейросетями, а администрация сервиса ограничений на выкладывание ИИ-контента не ввела. Претензии художников основаны не только на ревности к бездушной машине, но и на том подозрении, что обучался искусственный интеллект на работах, в том числе, с их порфтолию на ArtStation.
Конечно, страхи творцов связаны и с тем, что если ИИ может выполнять их работу быстрее и дешевле, то где в этой системе остаётся место для человека? Конечно, всегда найдутся те, кто сможет предложить нечто уникальное, то, что не под силу алгоритму. Но как долго продержится этот баланс, и что ждет тех, кто не готов адаптироваться?
Битва за Spotify
Если визуальное искусство уже трещит под напором ИИ, то музыка не спешила покоряться. До недавнего времени попытки нейросетей создать что-то музыкально значимое вызывали скорее недоумение, чем восхищение. Треки были слишком механистичны, однообразны, галлюционировали.
Первые удачные эксперименты с генеративной музыкой можно было услышать в алгоритме MusicLM от Google. Но продукт был в закрытом режиме, можно было только демками восхититься. Всё действительно изменилось в генеративной ИИ-музыке с появлением Suno и UDIO. Эти сервисы сумели сделать шаг вперёд, предложив нечто, что может вполне соперничать с работой человека.
И теперь генеративная музыка потихоньку начинает пробираться на стриминги, а главное поле битвы сейчас - Spotify. Платформе, кажется, более важно, что количество музыки растет, как и прослушивания, а как эта музыка создавалась уже дело десятое, лишь бы копирайтов не нарушала. Поэтому сервис официально завил, что против алгоритмов искусственного интеллекта ничего против не имеет.
Лейблы и музыканты жалуются на то, что Spotify никак не маркирует ИИ-музыку и рекомендательная система подсовывает бездушные синтетические генерации наряду с "живыми" исполнителями. Как определяют такую музыку? Пока стратегия такая: если исполнитель вне Spotify нигде не засветился - есть основания полагать, что это нейронка. Также, подвергают пристальному исзучению и профиль группы - логотип, биографию.
Недавно The Guardian публиковал историю о шведском композиторе Йохане Рёре (Johan Röhr). Он набрал 15 миллиардов прослушиваний (это больше, чем, например, у Элтона Джона, Metallica и ABBA), сделав себе 650 псевдонимов и заработав на стриминге, по оценкам СМИ, около 3 миллионов долларов.
История умалчивает, использовал ли предприимчивый швед генеративный ИИ, но есть основания полагать, что довольно непросто сотворить более 2000 композиций без нейросетевого допинга. Пусть и в жанре "фоновой", расслабляющей музыки. Этот стиль характерен простыми гармониями и константными ритмическими паттернами. Такая музыка не имеет сложных переходов, внезапных динамических изменений или ярко выраженной мелодической линии, что делает её идеальным объектом для алгоритмизации.
Осудить нельзя разрешить
Генеративный музыкальный ИИ представляется луддитам индустрии не иначе, как злодейское творение, забирающее хлеб у музыкантов-трудяг. Кроме того, нейросети посягнули на священные акты звукового креатива, а компании-операторы нарушают авторское право, когда отправляют свои алгоритмы обучаться на каталогах музыки. В общем, все аналогично истории с картиночными нейронками.
В отношении Suno и Udio недавно подали иски крупнейшие лейблы, которые заявляют, что сервисы обучали свои ИИ-модели на защищенных авторским правом песнях без соответствующих лицензий и разрешений.
В иске Ассоциации звукозаписывающей индустрии Америки (RIAA) трубется запретить дальнейшее использование их музыки и выплатить компенсацию в размере до 150 000 долларов за каждое нарушение авторских прав.
Истцы утверждают, что ИИ-генераторы создают песни, почти неотличимые от оригинальных исполнителей, а также воспроизводят голоса, например Майкла Джексона или участников группы ABBA.
Позиция Suno в этом иске интересна своей прямотой - компания признала, что фактически обучала свою модель искусственного интеллекта, используя треки, защищенные авторским правом. Но утверждает, что это подпадает под доктрину о добросовестном использовании.
Гендиректор компании Suno Майки Шульман в своей статье "The Future of Music" признает, что обучение происходило на "музыке среднего и высокого качества", которая доступна в Интернете и большая часть этого материала действительно защищена авторским правом, а некоторые треки принадлежат крупным звукозаписывающим лейблам.
Однако Шульман утверждает, что процесс обучения неуросетей аналогичен процессу познания, которым люди пользовались всегда, изучая стили, паттерны и формы (по сути, "грамматику" музыки), а затем изобретая новую музыку на их основе.
"Точно так же, как подросток сочиняет свои собственные рок—песни после прослушивания соответствующего жанра, или подобно учителю и журналисту, изучающих созданные кем-то материалы, чтобы почерпнуть новые идеи, — обучение не может расцениваться как нарушение. Так никогда не было и это по-прежнему не так", - пишет глава Suno.
В своем заявлении гендир Suno отметил, что технология компании направлена на «создание совершенно нового контента, а не для запоминания и воспроизведения существующего материала». Шульман также подчеркнул, что Suno не допускает использования промптов, основанных на конкретных исполнителях.
«Мы были бы рады объяснить это крупным звукозаписывающим компаниям, подавшим иск (и на самом деле пытались это сделать), но вместо конструктивного диалога они решили действовать по своему проверенному юридическому сценарию. Suno создается для новой музыки, новых идей и новых музыкантов. Мы ценим оригинальность», — говорится в заявлении.
Лейблы и артисты, разумеется, опасаются, что ИИ может забрать у них заработки и возможности творчески реализоваться. RIAA отреагировало следующим образом:
"Масштабное нарушение авторских прав никак не может считаться "добросовестным использованием". Ничего честного нет в том, чтобы украсть у исполнителя труд его жизни, извлечь из нее основную ценность и переупаковывать для конкуренции с оригиналами. Очевидно, что их видение "музыкального будущего" таково, что фанаты больше не будут наслаждаться музыкой своих любимых исполнителей, потому что эти исполнители больше не могут зарабатывать на жизнь."
В Suno напоминают, что обучение нейросетей на открытых источниках в интернете практикуется всеми крупными компаниями: Google так обучает свои модели Gemini, Microsoft — Copilot, Anthropic — Claude, OpenAI — ChatGPT, а Apple — свою новую систему Apple Intelligence.
Пока итога судебного решения нет, но очевидно, что решение будет, вероятно, судьбоносным для генеративной ИИ-музыки.
Вероятно, Google наблюдает за историей с исками к Suno и Udio и старается избежать аналогичного сценария. Недавно стало известно, что YouTube договаривается с Universal Music Group (UMG), Sony Music Entertainment и Warner Records о лицензиях на обучение гугловских ИИ-моделей.
Сколько конкретно YouTube предлагает лейблам не сказано, но Financial Times намекает, что сумма весьма значительная. Не уточняется также, для какого именно продукта сервис тренирует модели. У компании есть Dream Track для генерации музыки в стиле известных исполнителей, но издание отмечает, что этот инструмент развивать не будут. Секретный ИИ-проект планируется запустить в конце этого года.
В комментарии изданию представители видеохостинга заявили, что хотят выйти в более-менее легальное поле (хотя сейчас, с точки зрения закона, обучение нейронок это серая зона) и готовы платить фиксированный единовременный платеж за лицензию на использование музыки для обучения своих нейросетевых алгоритмов.
"Это другое!"
Но довольно о тревожном. В целом, влияние нейросетей на музыку часто видится как позитивный тренд. Какие сферы затронуты?
Рекомендательные алгоритмы. Когда сервисы дают тебе тот контент, который нравится и угадывают вкусы - это хорошо. ИИ способен очень детально понимать и классифицировать музыку - это касается как анализа непосредственно самих треков, так и детального изучения пользовательских привычек на индивидуальном и агрегированном уровнях. ИИ генерирует метаданные, анализирует настроение, тексты, темп, инструментал и находит неожиданные связи между жанрами и артистами, делая рекомендации более точными и интересными.
Генерация музыки. Да, некоторые музыканты хотят поднять на вилы, распять и сжечь разработчиков сервисов нейромузыки. Но уже сейчас можно говорить о расколе: одни категорически против синтетической музыки, другие активно используют ИИ-инструменты и становятся более продуктивными музыкантами. Чаще всего ИИ применяют для "буста вдохновения" и генерации референсов, чтобы преодолеть проблему "чистого листа". Другие синтетический трек переписывают с использованием "живых" инструментов, добавляя свой креатив. Так рождается гибридное творчество человека и машины.
Продакшн. Если генерация музыки вызывает критику, то ИИ-инструменты для обработки аудио музыканты любят и ждут. Анализаторы и "улучшайзеры", умные алгоритмы эквализации и компрессии, мастеринг-цепи с ИИ, сведение под референс в один клик при помощи нейросетей. Разумеется, ретрограды музыкального продакшна тут скажут, что нейросетевые обработки это недостаточно тепло и лампово, а ручками крутить компрессор в идеальной акустике студии - это другое дело.
В противоположность этому, техногики находят новые технологии крайне интересными и перспективными. ИИ способен значительно улучшить продакшн и сделать профессиональный мастеринг и сведение доступными широкой аудитории. Сэмплерные библиотеки тоже выигрывают — ИИ помогает сделать их звучание более реалистичным. В обычном пайплайне (из своего опыта могу сказать) на прописывание реалистичных партий уходит тонна времени.
Появление генеративной ИИ-музыки — это логичный результат десятилетий технологического развития. Пройден путь от экспериментов с автотюном до создания полностью синтетических музыкальных произведений с использованием сэмплерных библиотек. Современная музыка стала более механистичной и предсказуемой, а слушатели привыкли к определённым паттернам. Искусственный интеллект лишь усилил эту тенденцию, создавая композиции, которые полностью соответствуют стандартам и ожиданиям современной аудитории.
Короткие тексты про AI и контент в телеге
Комментарии (8)
Conung_ViC
29.08.2024 07:53+4Просто любопытно.
Когда какие-нибудь фронтмены групп говорят, что на заре своей деятельности вдохновлялись предыдущими группами - это норм. Например, лидер Imagine Dragons Дэн Рейнольдс указывает в качестве источников вдохновения группы Arcade Fire, Nirvana, Muse, The Beatles, Пола Саймона, Coldplay, Linkin Park . И никому в голову не приходит судить его за плагиат.
А в чем тут отличие с "обучаемыми генерирующими сетями"?alexshalyapin Автор
29.08.2024 07:53Согласен, тут, скорее, иррациональное и анекдотичное "это другое, вы не понимаете". Мне кажется, тут штука в том, что возможности компьютера "вдохновляться" и генерировать потом что-то годное превышают человеческие, отсюда и недовольство. Условно, опасения есть, что софт будет эффективней человека) Ведь не каждый музыкант может послушать ряд референсов и потом сразу начинать генерить что-то добротное. По разным стечениям обстоятельств его, кожаного музыканта, эффективность может быть низкой, а генерации некачественными. А с ИИ сейчас более быстрый и предсказуемый результат получается. Вот и паника из-за открывшейся разницы в "весовых категориях".
VokaMe
29.08.2024 07:53+1Безумно люблю хор, но слышу звуки с разницей в 0.1 тона как разные. Слава роботам, я могу наслаждаться чистейшей акапельной музыкой, исполненной голосами кожаных. Софт превзойдет человека, во всем, в т.ч. в искусстве. Как-то довелось провести ночь в шумной компании с включенным на одном_популярном_музыкальном_канале телевизором. Я насчитал 5 квадратов. 5 квадратов за всю ночь, Карл. Эти авторы должны быть заменены машинами. Поэты никуда не денутся. Директора, считающие себя поэтами, исчезнут. Туда им и дорога.
alexshalyapin Автор
29.08.2024 07:53Да, думаю, такое вероятно. Тем более, что спрос есть на такие 5 квадратов, увы.
lomov_vas
В общем-то, ничего нового, все понимали, что за художниками следующей жертвой станут музыканты.
alexshalyapin Автор
Я (как журналист) ставил на журналистов))) Но, вроде, пока кожаные еще нужны)
Conung_ViC
только пока дроны сами не научатся на места проишествий ездить и интервью у "говорящих голов" брать...
хотя если ИИ научатся генерировать видео с "правильными" словами "правильных" говорящих голов...
alexshalyapin Автор
Ой, это, кажется, дорого. Слишком экономически невыгодно получится. Вот задерживается спикер на часа 3 и как - у дрона батарейка сядет. Выезд человека в разы дешевле - его под дождь, в снег и град, в любые дали можно отправить за фиксированную зп)