Отказ от ответственности: вся интеллектуальная собственность, проекты и методы, описанные в этой статье, раскрыты в патентах US10014002B2 и US9842609B2.
Вот бы вернуться в 1965 год, постучать в парадную дверь студии «Эбби-Роуд» с пропуском, зайти внутрь — и услышать настоящие голоса Леннона и Маккартни… Что ж, давайте попробуем. Входные данные: MP3 среднего качества песни «Битлз» We Can Work it Out. Верхняя дорожка — входной микс, нижняя дорожка — изолированный вокал, который выделила наша нейросеть.
Формально эта проблема известна как разделение источников звука или разделение сигнала (audio source separation). Она заключается в восстановлении или реконструкции одного или нескольких исходных сигналов, которые в результате линейного или свёрточного процесса смешаны с другими сигналами. У этой области исследований много практических применений, в том числе улучшение качества звука (речи) и устранение шума, музыкальные ремиксы, пространственное распределение звука, ремастеринг и т. д. Звукоинженеры иногда называют эту технику расслоением (demixing). По этой теме большое количество ресурсов, от слепого разделения сигналов с анализом независимых компонент (ICA) до полууправляемой факторизации неотрицательных матриц и заканчивая более поздними подходами на основе нейронных сетей. Хорошую информацию по первым двум пунктам можете найти в этих мини-руководствах от CCRMA, которые в своё время мне очень пригодились.
Но перед погружением в разработку… совсем немного философии прикладного машинного обучения…
Я занимался обработкой сигналов и изображений ещё до того, как распространился лозунг «глубокое обучение решает всё», поэтому могу представить вам решение в качестве путешествия feature engineering и показать, почему для этой конкретной проблемы нейросеть оказывается лучшим подходом. Зачем? Очень часто я вижу, как люди пишут что-то вроде такого:
«С глубоким обучением больше не нужно беспокоиться о выборе признаков; оно сделает это за вас»
или ещё хуже…
«Разница между машинным обучением и глубоким обучением [погодите… глубокое обучение это по-прежнему машинное обучение!] в том, что в ML вы сами извлекаете признаки, а в глубоком обучении это происходит автоматически внутри сети».
Вероятно, такие обобщения исходят из того факта, что DNN могут быть очень эффективны при изучении хороших скрытых пространств. Но так обобщать нельзя. Меня очень расстраивает, когда недавние выпускники и практики поддаются вышеуказанным заблуждениям и принимают подход «глубокое-обучение-решает-всё». Мол, достаточно набросать кучу необработанных данных (пусть даже после небольшой предварительной обработки) — и всё заработает как надо. В реальном мире нужно заботиться о таких вещах, как производительность, выполнение в реальном времени и т. д. Из-за таких заблуждений вы очень надолго застрянете в режиме экспериментов…
Feature Engineering остаётся очень важной дисциплиной при проектировании искусственных нейронных сетей. Как и в любой другой технике ML, в большинстве случаев именно она отличает эффективные решения уровня продакшна от неудачных или неэффективных экспериментов. Глубокое понимание ваших данных и их природы по-прежнему очень много значит…
От А до Я
Хорошо, я закончил проповедь. Теперь разберёмся, зачем мы здесь собрались! Как и с любой проблемой по обработке данных, сначала посмотрим, как они выглядят. Взглянем на следующий фрагмент вокала из оригинальной студийной записи.
Студийный вокал ‘One Last Time’, Ариана Гранде
Не слишком интересно, верно? Ну, это потому что мы визуализируем сигнал во времени. Здесь мы видим только изменения амплитуды с течением времени. Но можно извлечь всякие другие штуки, такие как амплитудные огибающие (envelope), среднеквадратичные значения (RMS), скорость изменения с положительных значений амплитуды на отрицательные (zero-crossing rate) и т. д., но эти признаки слишком примитивны и недостаточно отличительны, чтобы помочь в нашей проблеме. Если мы хотим извлечь вокал из аудиосигнала, для начала нужно каким-то образом определить структуру человеческой речи. К счастью, на помощь приходит оконное преобразование Фурье (STFT).
Амплитудный спектр STFT ? размер окна = 2048, перекрытие = 75%, логарифмическая шкала частот [Sonic Visualizer]
Хотя я люблю обработку речи и определённо люблю играться с моделированием входного фильтра, кепстром, сачтотами, LPC, MFCC и так далее, пропустим всю эту ерунду и сосредоточимся на основных элементах, связанных с нашей проблемой, чтобы статья была понятна как можно большему числу людей, а не только специалистам по обработке сигналов.
Итак, что же говорит нам структура человеческой речи?
Ну, мы можем определить здесь три основных элемента:
- Фундаментальная частота (f0), которая определяется частотой вибрации наших голосовых связок. В этом случае Ариана поёт в диапазоне 300-500 Гц.
- Ряд гармоник выше f0, которые следуют аналогичной форме или шаблону. Эти гармоники появляются на частотах, кратных f0.
- Невокализированная речь, которая включает согласные, такие как ‘t’, ‘p’, ‘k’, ‘s’ (которые не производятся вибрацией голосовых связок), дыхание и т. д. Всё это проявляется в виде коротких всплесков в высокочастотной области.
Первая попытка с применением правил
Давайте на секунду забудем, что называется машинным обучением. Можно ли разработать метод извлечения вокала на основе наших знаний о сигнале? Позвольте попробовать…
Наивная изоляция вокала V1.0:
- Определить участки с вокалом. В исходном сигнале много всего. Мы хотим сосредоточиться на тех участках, которые действительно содержат вокальное содержание, и игнорировать всё остальное.
- Различить вокализированную и невокализированную речь. Как мы видели, они сильно отличаются. Вероятно, их нужно обрабатывать по-разному.
- Оценить изменение фундаментальной частоты во времени.
- На основании вывода 3 применить какую-то маску для захвата гармоник.
- Сделать что-нибудь с фрагментами невокализированной речи…
Если мы достойно поработаем, результатом должна стать мягкая или битовая маска, применение которой к амплитуде STFT (поэлементное умножение) даёт приблизительную реконструкцию амплитуды STFT вокала. Затем мы объединяем эту вокальную STFT с информацией о фазе исходного сигнала, вычисляем обратный STFT и получаем временной сигнал реконструированного вокала.
Делать это с нуля — уже большая работа. Но ради демонстрации применим реализацию алгоритма pYIN. Хотя он предназначен для решения шага 3, но с правильными настройками весьма прилично выполняет шаги 1 и 2, отслеживая вокальную основу даже в присутствии музыки. Пример ниже содержит выходные данные после обработки этим алгоритмом, без обработки невокализированной речи.
И что...? Он вроде сделал всю работу, но хорошего качества нет и близко. Возможно, затратив больше времени, энергии и денег, мы улучшим этот метод…
Но позвольте вас спросить…
Что произойдёт, если на дорожке появится несколько голосов, а ведь это часто встречается, по крайней мере, в 50% современных профессиональных треков?
Что произойдёт, если вокал обработан реверберацией, задержками и другими эффектами? Давайте взглянем на последний припев Арианы Гранде из этой песни.
Вы уже чувствуете боль...? Я да.
Такие методы на жёстких правилах очень быстро превращаются в карточный домик. Проблема слишком сложна. Cлишком много правил, слишком много исключений и слишком много различных условий (эффекты и настройки сведения). Многоступенчатый подход также подразумевает, что ошибки на одном шаге распространяют проблемы на следующий шаг. Улучшение каждого шага станет очень дорогостоящим: потребуется большое количество итераций, чтобы всё сделать правильно. И последнее, но не менее важное: вероятно, в конечном итоге у нас получится очень ресурсоёмкий конвейер, что само по себе может свести на нет все усилия.
В такой ситуации пора начать думать о более комплексном подходе и позволить ML выяснить часть базовых процессов и операций, необходимых для решения проблемы. Но нам всё-таки придётся проявить свои умения и заняться feature engineering, и вы увидите почему.
Гипотеза: использовать нейросеть как передаточную функцию, которая транслирует миксы в вокалы
Глядя на достижения свёрточных нейросетей в обработке фотографий, почему бы не применить здесь такой же подход?
Нейросети успешно решают такие задачи, как расцвечивание изображений, повышение резкости и разрешения
В конце концов, можно же представить звуковой сигнал «как изображение», используя кратковременное преобразование Фурье, верно? Хотя эти звуковые картинки не соответствуют статистическому распределению естественных изображений, у них всё равно есть пространственные закономерности (во времени и частотном пространстве), на которых можно обучать сеть.
Слева: удар барабана и базовая линия внизу, несколько звуков синтезатора посередине, всё это смешано с вокалом. Справа: только вокал
Проведение такого эксперимента было бы дорогостоящим мероприятием, поскольку трудно получить или сгенерировать необходимые учебные данные. Но в прикладных исследованиях я всегда стараюсь применять такой подход: сначала выявить более простую проблему, которая подтверждает те же принципы, но не требует много работы. Это позволяет оценить гипотезу, быстрее выполнять итерации и с минимальными потерями исправить модель, если она не работает как надо.
Подразумеваемым условием является то, что нейросеть должна понимать структуру человеческой речи. Более простая проблема может быть такой: сможет ли нейросеть определить наличие речи на произвольном фрагменте звукозаписи. Мы говорим о надёжном детекторе голосовой активности (VAD), реализованном в виде бинарного классификатора.
Проектируем пространство признаков
Мы знаем, что звуковые сигналы, такие как музыка и человеческая речь, основаны на временных зависимостях. Проще говоря, ничто не происходит изолированно в данный момент времени. Если я хочу знать, есть ли голос на конкретном фрагменте звукозаписи, то нужно смотреть на соседние регионы. Такой временной контекст даёт хорошую информацию о том, что происходит в интересующей области. В то же время желательно выполнять классификацию с очень малыми временными приращениями, чтобы распознавать человеческий голос с максимально возможным разрешением по времени.
Давайте немного посчитаем…
- Частота дискретизации (fs): 22050 Гц (мы понижаем дискретизацию с 44100 до 22050)
- Дизайн STFT: размер окна = 1024, hop size = 256, интерполяция мел-шкалы для взвешивающего фильтра с учётом восприятия. Поскольку наши входные данные настоящие, можно работать с половиной STFT (объяснение выходит за рамки этой статьи...), сохраняя компонент DC (необязательное требование), что даёт нам 513 частотных бункеров.
- Целевое разрешение классификации: один кадр STFT (~11,6 мс = 256 / 22050)
- Целевой временной контекст: ~300 миллисекунд = 25 кадров STFT.
- Целевое количество обучающих примеров: 500 тыс.
- Предполагая, что мы используем скользящее окно с шагом в 1 таймфрейм STFT для генерации учебных данных, нужно около 1,6 часов размеченного звука для генерации 500 тыс. образцов данных
С вышеуказанными требованиями вход и выход нашего бинарного классификатора выглядят следующим образом:
Модель
С помощью Keras построим небольшую модель нейросети для проверки нашей гипотезы.
import keras
from keras.models import Sequential
from keras.layers import Dense, Dropout, Flatten, Conv2D, MaxPooling2D
from keras.optimizers import SGD
from keras.layers.advanced_activations import LeakyReLU
model = Sequential()
model.add(Conv2D(16, (3,3), padding='same', input_shape=(513, 25, 1)))
model.add(LeakyReLU())
model.add(Conv2D(16, (3,3), padding='same'))
model.add(LeakyReLU())
model.add(MaxPooling2D(pool_size=(3,3)))
model.add(Dropout(0.25))
model.add(Conv2D(16, (3,3), padding='same'))
model.add(LeakyReLU())
model.add(Conv2D(16, (3,3), padding='same'))
model.add(LeakyReLU())
model.add(MaxPooling2D(pool_size=(3,3)))
model.add(Dropout(0.25))
model.add(Flatten())
model.add(Dense(64))
model.add(LeakyReLU())
model.add(Dropout(0.5))
model.add(Dense(1, activation='sigmoid'))
sgd = SGD(lr=0.001, decay=1e-6, momentum=0.9, nesterov=True)
model.compile(loss=keras.losses.binary_crossentropy, optimizer=sgd, metrics=['accuracy'])
При разделении данных 80/20 на обучение и тестирование после ~50 эпох мы получаем точность при тестировании ~97%. Это достаточное доказательство, что наша модель способна различать вокал в музыкальных звуковых фрагментах (и фрагменты без вокала). Если проверить некоторые карты признаков из 4-го свёрточного слоя, то можно сделать вывод, что нейросеть вроде бы оптимизировала свои ядра для выполнения двух задач: отфильтровки музыки и отфильтровки вокала…
Пример карты объектов на выходе 4-го свёрточного слоя. Видимо, выходные данные слева являются результатом операций ядра в попытке сохранить вокальный контент, игнорируя музыку. Высокие значения напоминают гармоническую структуру человеческой речи. Карта объектов справа кажется результатом выполнения противоположной задачи
От детектора голоса к разъединению сигнала
Решив более простую задачу классификации, как нам перейти к реальному выделению вокала из музыки? Ну, глядя на первый наивный метод, мы всё равно хотим как-то получить амплитудную спектрограмму для вокала. Теперь это становится задачей регрессии. Что мы хотим сделать, так это по конкретному таймфрейму из STFT исходного сигнала, то есть микса (с достаточным временным контекстом) рассчитать соответствующий амплитудный спектр для вокала в этом таймфрейме.
Что насчёт обучающего набора данных? (вы можете спросить меня в этот момент)
Вот чёрт… зачем же так. Я собирался рассмотреть это в конце статьи, чтобы не отвлекаться от темы!
Если наша модель хорошо обучается, то для логического вывода нужно всего лишь реализовать простое скользящее окно к STFT микса. После каждого прогноза перемещаем окно вправо на 1 таймфрейм, прогнозируем следующий фрейм с вокалом и связываем его с предыдущим предсказанием. Что касается модели, возьмём ту же модель, которую использовали для детектора голоса и произведём небольшие изменения: форма выходного сигнала теперь (513,1), линейная активация на выходе, MSE как функция потерь. Вот теперь начинаем обучение.
Пока не радуйтесь…
Хотя такое представление ввода/вывода имеет смысл, после обучения нашей модели несколько раз, с различными параметрами и нормализациями данных, результатов нет. Кажется, мы просим слишком многого…
Мы перешли от бинарного классификатора к регрессии на 513-мерном векторе. Хотя сеть в некоторой степени изучает задачу, но в восстановленном вокале всё равно есть очевидные артефакты и помехи от других источников. Даже после добавления дополнительных слоёв и увеличения количества параметров модели результаты не сильно меняются. И тогда встаёт вопрос: как обманом «упростить» для сети задачу, и при этом достичь желаемых результатов?
Что если вместо оценки амплитуды STFT вокала обучать сеть получению бинарной маски, которая при применении к STFT микса даёт нам упрощённую, но перцептивно-приемлемую амплитудную спектрограмму вокала?
Экспериментируя с различными эвристиками, мы придумали очень простой (и, безусловно, неортодоксальный с точки зрения обработки сигналов...) способ извлечения вокала из миксов с использованием бинарных масок. Не вдаваясь в подробности, суть в следующем. Представим выход как бинарное изображение, где значение ‘1’ указывает на преобладающее присутствие вокального контента на заданной частоте и таймфрейме, а значение ‘0’ указывает на преобладающее присутствие музыки в данном месте. Можем назвать это бинаризацией восприятия, просто чтобы придумать какое-то название. Визуально это выглядит довольно некрасиво, если честно, но результаты удивительно хороши.
Теперь наша проблема становится своеобразным гибридом регрессии-классификации (очень грубо говоря...). Мы просим модель «классифицировать пиксели» на выходе как вокальные или не вокальные, хотя концептуально (а также с точки зрения используемой функции потерь MSE) задача по-прежнему остаётся регрессионной.
Хотя это различие может показаться неуместным для некоторых, на самом деле оно имеет большое значение в способности модели изучить поставленную задачу, вторая из которых является более простой и ограниченной. В то же время, это позволяет нам сохранить нашу модель относительно небольшой по количеству параметров, учитывая сложность задачи, что-то очень желаемое для работы в реальном времени, что в данном случае было проектным требованием. После некоторых незначительных настроек окончательная модель выглядит так.
Как восстановить сигнал временной области?
По сути, как в наивном методе. В данном случае на каждый проход мы прогнозируем один таймфрейм бинарной маски вокала. Опять же, реализуя простое скользящее окно с шагом одного таймфрейма, продолжаем оценивать и объединять последовательные таймфреймы, которые в конечном итоге составляют всю вокальную бинарную маску.
Создание обучающего набора
Как вы знаете, одна из главных проблем при обучении с учителем (оставьте эти игрушечные примеры с готовыми датасетами) — правильные данные (по количеству и качеству) для конкретной проблемы, которую вы пытаетесь решить. Исходя из описанных представлений ввода и вывода, для обучения нашей модели сначала понадобится значительное количество миксов и соответствующих им, идеально выровненных и нормализованных вокальных треков. Такой набор можно создать несколькими способами, и мы использовали комбинацию стратегий, начиная от ручного создания пар [микс <-> вокал] на основе нескольких а капелл, найденных в интернете, до поиска музыкального материала рок-групп и скрапинга Youtube. Просто чтобы дать вам представление, насколько это трудоёмкий и болезненный процесс, частью проекта стала разработка такого инструмента для автоматического создания пар [микс <-> вокал]:
Нужно действительно большое количество данных, чтобы нейросеть выучила функцию переноса для трансляции миксов в вокал. Наш окончательный набор состоял примерно из 15 млн образцов по 300 мс миксов и соответствующих им вокальных бинарных масок.
Архитектура конвейера
Как вы наверное знаете, создать модель ML для конкретной задачи — только полдела. В реальном мире нужно продумать архитектуру программного обеспечения, особенно если нужна работа в реальном времени или близком к нему.
В этой конкретной реализации реконструкция во временную область может происходить сразу после прогнозирования полной бинарной маски вокала (автономный режим) или, что более интересно, в многопоточном режиме, где мы получаем и обрабатываем данные, восстанавливаем вокал и воспроизводим звук — всё мелкими сегментами, близко к потоковой передаче и даже практически в режиме реального времени, обрабатывая музыку, которая записывается на лету с минимальной задержкой. Вообще, это отдельная тема, и я оставлю её для другой статьи, посвящённой ML-конвейерам в реальном времени…
Наверное, я сказал достаточно, так почему бы не послушать парочку примеров!?
Daft Punk?—?Get Lucky (студийная запись)
Здесь можно услышать некоторые минимальные помехи от барабанов…
Adele?—?Set Fire to the Rain (живая запись!)
Обратите внимание, как в самом начале наша модель извлекает крики толпы как вокальное содержание :). В этом случае есть некоторые помехи от других источников. Поскольку это живая запись, кажется допустимым, что извлечённый вокал хуже качеством, чем предыдущие.
Да, и «ещё кое-что»…
Если система работает для вокала, почему бы не применить её к другим инструментам...?
Статья и так довольно большая, но учитывая проделанную работу, вы заслуживаете услышать последнее демо. С точно такой же логикой, как при извлечении вокала, мы можем попытаться разделить стереомузыку на составляющие (барабаны, басы, вокал, другие), сделав некоторые изменения в нашей модели и, конечно, имея соответствующий набор обучения :).
Спасибо за чтение. В качестве последнего замечания: как видите, фактическая модель нашей свёрточной нейросети не такая уж особенная. Успех этой работы обусловили Feature Engineering и аккуратный процесс проверки гипотез, о чём я ещё напишу в будущих статьях!
Комментарии (26)
GiperBober
21.02.2019 08:58Технология бы очень помогла в сфере всевозможных автоматических субтитров. Уже сейчас нейросети вполне корректно переводят слова в субтитры, но беспомощны, когда фоном налагается шум или музыка.
Для глухих людей было бы просто отличным появление этих технологий на обычных компьютерах и офф-лайн устройствах. Чтобы смартфон или даже гугл-очки могли сразу переводить в субтитры, что говорят люди, игнорируя шум или музыку, и в фильмах и программах всё переводилось в субтитры автоматически, без необходимости их искать отдельно или ждать версий с субтитрами.
Учитывая, что и нейросети-переводчики уже неплохо поднатаскались, то эта фишка позволила бы смотреть и любые непереведённые фильмы и передачи сразу с русскими субтитрами.
А прям вообще круть — это гугл-очки дополненной реальности, которые бы подписывали все источники звука вместе с их расположением в пространстве. С настраиваемыми приоретами, вроде «разговоры людей — высший приоритет, отображать всегда, бытовой шум — показывать новые шумы, старые шумы — оповещать о начале шума, скрывать в случае нормального шума, оповещать о ненормальной работе устройств (шум отличается от типового для данного устройства), выделять обращения по имени»
defecator
21.02.2019 10:13Такое бы прикрутить для удаления рекламных роликов при просмотре кинцов на телеке ))))
redpax
21.02.2019 10:41Наоборот сеть работает? То есть наиболее востребования функция удаления голоса из музыки возможна?
vassabi
21.02.2019 10:55вы точно статью прочитали? Конечно же работает — там же битовая маска.
SADKO
21.02.2019 17:06Да-да-да, достаточно широкая и бурлящая, почему нам собственно и демонстрируется выделенный голос, а не фонограмма, ибо вместо музыки там будет трэшь угар и содомия…
Если банальная фонограмма-удавка (частотно зависимое вычитание стереоканалов) характерна простым дисбалансом микса, то в таком чуде, дисбаланс будет динамическим!!!
FForth
21.02.2019 11:07Интересно, а насколько данная технология работает на звуковых дорожках фильмов?
dMac
21.02.2019 11:21Битлз выбрали, конечно же, как самый лучший пример работы?
Там в миксе центральный канал, если вокала не считать — пустой, а инструменты раскиданы по бокам, для нейронки это за счастье, наверное. Такой микс прилично делится и без нейронок, просто за счет панорамы (можно в Audition, например, попробовать).
Остальные примеры на порядок сложнее, но, что удивительно — качество результата падает гораздо меньше, чем я ожидал. Хотя до практически применимого качества еще работать и работать, направление, кажется, перспективное.
И еще я придумал, как потроллить эту нейронку. Надо рядом с вокалом положить в микс электрогитару, пропущенную через вокодер. На модулирующий вход вокодера подать вторую партию вокала, и посмотреть, как будет мучиться сеть, решая, гитара это, или все-таки вокал /smile/marshinov
21.02.2019 12:31Надо рядом с вокалом положить в микс электрогитару, пропущенную через вокодер.
Мусьё знает толк :))
Spaceoddity
21.02.2019 17:59+1Не, там всё как раз ещё проще. Там весь вокал в правом канале (со струнными), а остальные инструменты в левом. Если просто взять правый канал, то получится примерно это:
soundcloud.com/user-823965336/we-can-work-it-out
А если ещё параметрическими фильтрами поиграться, чтобы струнные приглушить…dMac
21.02.2019 19:57Возможно я стал стар и глуховат…
Но кажется, вокал все-таки в центре, вместе с басом и бочкой.
Остальная установка слева (по крайней мере, рабочий барабан и тарелки), ритм гитара слева, клавишные справа.
Второй вокал таки да немного заносит вправо, но скорее это из-за накрученного на него ревера, не?
Тогдашние микшеры по определению не могли делать любую панораму, только на 9, 12 и 3 часа — там переключатели былиSpaceoddity
21.02.2019 22:57Объясняю. Микс:
soundcloud.com/user-823965336/mix
5 секунд оригинала, 5 секунд оба канала из правого, 5 секунд оба канала из левого.
А теперь самое интересное. Всё дело в источнике. Я для сэмпла взял «Past Masters Disc 2 (2009 Stereo Remaster)». Но у меня есть и «CD11 — We Can Work It Out (Mono) 1965». С которым, по вполне понятным причинам бессмысленно делать такие манипуляции. Посыл понятен? Изначально We Can Work It Out была выпущена (в Британии) в моно-формате (как и все синглы Битлз вообще, и как четыре первых альбом до «Хелпа»). Это потом уже была куча всяких стерео-ремастеров, пересведений и т.п. Так что тут всё зависит от конкретного ремастерного издания из которого берётся источник ;)
P.S. И в чём была проблема установить любую панораму? Это же даже не эквалайзер. Просто берём сигнал и элементарным переменным резистором регулируем уровень этого сигнала для одного канала и для другого.dMac
22.02.2019 18:06По панораме — если мы говорим о более позднем ремастере, проблем нет. Если об оригинальной записи родом из шестидесятых — тогда прошу ознакомиться с раздельчиком «Stereo-switching» вот тут:
https://en.wikipedia.org/wiki/Panning_(audio)
antonsosnitzkij
21.02.2019 12:45Насколько мне известно решенная задача называется «слепое разделение сигнала», поправьте, пожалуйста, если ошибаюсь
Является ли использование нейронных сетей оптимальным решением данной задачи?musicriffstudio
21.02.2019 20:48+1об этом сказано в самом начале
По этой теме большое количество ресурсов, от слепого разделения сигналов с анализом независимых компонент (ICA) до
Решает ли AI эту задачу оптимальней? Вряд ли. Зато модно.
perfect_genius
21.02.2019 13:40+1Не понял, почему нельзя записать голос, слить его со звуком-шумом и учить нейросеть выделять голос сравнивая с эталонной записью. Кто может объяснить?
Bukvva
21.02.2019 13:59Цель была — выделять голос именно из песен.
Пение и говорение несколько отличаются. И, видимо, натренировать сеть на говорении не достаточно для пения. А для записи пения надо иметь под рукой очень большое количество певцов.
pda0
21.02.2019 16:02Интересно было бы обратную задачу увидеть. Т.е. по музыке и голосу научить предсказывать к музыке голос. Чтобы можно было подать в нейросеть музыку и услышать пение. Дичь конечно будет страшная, на осмысленность можно даже близко не рассчитывать, но звучать может забавно. :)
vvzvlad
21.02.2019 21:27Наоборот тоже можно — бубнишь что-нибудь в микрофон, а тебе музыку накладывают. Как караоке, но даже в слова попадать не надо.
CyberAP
21.02.2019 16:29Очень интересно было бы почитать как ребята из iZotope решили подобную задачу в RX 7, если это конечно не коммерческая тайна.
SADKO
21.02.2019 17:30Вот, очень хорошо, что их помянули, на этом празднике тупого «нейроинженеринга», без каких-либо попыток вникнуть в суть происходящего…
Как c шумами работает RXысина вообще, да собственно так-же как и DART и CoolEdit который ныне audition. Раскладываем сигнал в спектр (правильным образом), и в каждой полосе осуществляем динамическую обработку и собираем обратно. Ничего сложного, дьявол в деталях реализации, временных постоянных\переменных, логике, компенсации лага… Профиль сигнала можно снять в абсолютных или относительных значениях, можно отслеживать сдвиги спектра, что было актуально для работы с аналоговыми носителями… В общем тема эта давняя и полезная не только в деле подавления стационарных шумов… И нейросети бы тут пригодились, если применять их умеючи, а не в лоб.CyberAP
21.02.2019 17:39А при чём тут шумы? RX 7 умеет разделять сигнал по семантике. Отдельно ударные, вокал, бас и прочие инструменты. Собственно, очень интересно как они это делают, если память не изменяет они говорили что это построено на машинном обучении.
www.izotope.com/en/products/repair-and-edit/rx/features-and-comparison/music-rebalance.html.htmlSADKO
21.02.2019 18:39а при том, что принцип тот-же, разница лишь в том, что вместо тупого гейта про профилю сигнала\шума, хотя уже и он может подавлять\выделять не только шумы но и сигналы, не суть
… используется более хитрая передаточная характеристика, с более хитрым детектором, возможно и сигнатурным, но скорее всего просто это та-же пространственная удавка, только вместо тупого эквалайзера хитрый шумо\сигнало дав ;-)
и вообще, ребаланс сведёнки, люди делали когда изотоп ещё плагином для винампа не был
Refridgerator
21.02.2019 18:12Поскольку наши входные данные настоящие, можно работать с половиной STFT (объяснение выходит за рамки этой статьи...), сохраняя компонент DC (необязательное требование), что даёт нам 513 частотных бункеров.
Предполагаю, что имелось в виду следующее:
Поскольку мы работаем с действительными, а не комплексными данными, то можно работать с половиной STFT, что даст нам 513 частотных полос (включая необязательную постоянную составляющую).
stalinets
21.02.2019 20:02В случае, если слабый голос заглушен громкой музыкой, и ты знаешь этот трек, неплохо бы иметь возможность для облегчения работы нейросети загрузить ей этот трек в чистом виде, чтобы она просто вычла его из входящего файла.
rsashka
Класс! Спасибо за перевод статьи!
Жаль, что можно добавить только один плюсик.