Всем привет! В этой статье будут рассмотрены открытые проекты по синтезу речи с поддержкой русского языка. Под словом «открытые» будем иметь в виду, что разработчики безвозмездно предоставляют в пользование результаты своих трудов (спасибо им за это большое). Также в обзоре вы найдете краткое описание решений с примерами генерации аудио по тексту и полезными ссылками для начального погружения в задачу text-to-speech. Приятного прочтения.
Первые опыты
Мое первое знакомство с аудионейросетями и одновременно их практическое применение началось с задачи дообучения англоговорящей нейросети на русском датасете. Основой модели была архитектура Fast Speech от coqui.ai, это один из популярных проектов в области TTS. Сама модель должна была стать частью телеграм-бота для технической поддержки пользователей (не будем задаваться вопросом зачем).
Неудивительно, что с первого раза сделать качественную нейросеть в ограниченные сроки не представилось возможным, но опыта было получено немерено.
Сегодня создавать с нуля такое решение уже необязательно, поскольку в открытом доступе есть множество моделей удовлетворительного качества. Конечно, количество решений для популярного английского языка значительно больше, но и для русского получилось кое-что найти.
Немножко про сам звук
Из теории звука (подробнее можно почитать тут) для дальнейшего понимания нам понадобятся частота дискретизации, амплитуда и способы его (звука) визуализации.
Частота дискретизации
Важным параметром при обучении нейросетей является частота дискретизации (sample rate по-английски) – количество измерений непрерывного сигнала, сделанных за одну секунду, измеряется в герцах (Гц). Частота дискретизации звука высокого разрешения составляет 192 кГц, но обычно частота дискретизации, используемая при обучении речевых моделей, составляет 16 или 24 кГц (ну и 22 050 Гц).
Частота дискретизации напрямую влияет на качество звука. При выборе модели генерации важно знать, какие частоты дискретизации она поддерживает и желательно какая была частота дискретизации у датасета для обучения.
Амплитуда звуковой волны
Другим важным параметром является амплитуда. Амплитуда определяет уровень звукового давления и измеряется в децибелах (дБ). Для человека амплитуда звука воспринимается как громкость. Децибельная шкала для реального звука начинается с 0 дБ, что соответствует самому тихому звуку, который может услышать человек, а звук громкостью 130 дБ и больше преодолевает болевой порог организма и может вызвать различные патологические процессы.
Часто, например, в электротехнике, можно увидеть отрицательную шкалу дБ, где сигнал в 0 дБ, наоборот, соответствует максимальной мощности, которую может выдать устройство, поэтому значения меньше максимального будут отрицательны.
Фаза звуковой волны
Фаза – это положение волны относительно нулевой амплитуды в определенный момент времени. Фаза, как и амплитуда, является характеристикой любых колебательных процессов, к которым относится и звук.
Визуализация звука
Амплитудный график и частотный спектр
Аудиосигнал можно визуализировать несколькими способами. Самый простой способ – смотреть зависимость амплитуды сигнала от времени.
Другим способом является построение частотного спектра (не связано с частотой дискретизации). Условно сигнал любой сложной формы можно представить в виде «суммы» простых гармонических колебаний различных частот. А строя частотный спектр сигнала (с помощью дискретного преобразования Фурье), можно визуально посмотреть на отдельные частоты, из которых он состоит.
Рассмотрим визуализацию на примере звука музыкальной трубы:
import matplotlib.pyplot as plt
import librosa.display
import librosa
# подгружаем звук
array, sampling_rate = librosa.load(librosa.ex("trumpet"))
array = array[:len(array)//2]
dft_input = array[:4096]
# рассчитаем ДПФ
window = np.hanning(len(dft_input))
windowed_input = dft_input * window
dft = np.fft.rfft(windowed_input)
# получим амплитудный спектр в децибелах
amplitude = np.abs(dft)
amplitude_db = librosa.amplitude_to_db(amplitude, ref=np.max)
# получим частотные столбцы
frequency = librosa.fft_frequencies(sr=sampling_rate, n_fft=len(dft_input))
# строим графики
fig, axis = plt.subplots(nrows=1, ncols=2, figsize = (16, 4))
librosa.display.waveshow(array, sr=sampling_rate, ax = axis[0])
axis[0].set_title("Амплитудный график", fontsize = 18)
axis[1].plot(frequency, amplitude_db)
# axis[1].set_xscale("log")
axis[1].set_title("Частотный спектр", fontsize = 18)
Спектрограмма
Для обучения нейросетей часто используются спектрограммы. Многие модели машинного обучения принимают на вход и выдают на выходе спектрограммы. Спектрограмма строится с применением оконного преобразования Фурье и представляет собой зависимость изменения частот звукового сигнала от времени. Она позволяет увидеть время, частоту и амплитуду на одном изображении.
Для того чтобы воспроизвести звук по спектрограмме, необходимо восстановить из нее волновую форму аудио, что можно сделать с помощью обратного преобразования Фурье. Однако при работе со спектрограммами теряется информация о фазе, и если спектрограмма была сгенерирована моделью машинного обучения, то она, как правило, выдает только амплитуды. В таком случае для восстановления формы волны из спектрограммы можно использовать классический алгоритм Гриффина – Лима или нейронную сеть, называемую вокодером.
Мел-спектрограмма
Мел-спектрограмма – это модификация спектрограммы, в которой частоты выражаются не в Гц, а в мелах. Поскольку слуховая система человека более чувствительна к изменениям на низких частотах, чем на высоких, и эта чувствительность уменьшается логарифмически с увеличением частоты, то шкалу мел применяют для аппроксимации нелинейной чувствительности человеческого слуха.
Подробнее про мел-спектрограммы
Построим спектрограммы отрывка аудио музыкальной трубы:
# строим спектрограммы
fig, axis = plt.subplots(nrows=1, ncols=2, figsize = (16, 4))
D = librosa.stft(array)
S_db = librosa.amplitude_to_db(np.abs(D), ref=np.max)
librosa.display.specshow(S_db, x_axis="time", y_axis="hz", ax = axis[0])
axis[0].set_title("Спектрограмма", fontsize = 20)
S = librosa.feature.melspectrogram(y=array, sr=sampling_rate, n_mels=128, fmax=8000)
S_dB = librosa.power_to_db(S, ref=np.max)
librosa.display.specshow(S_dB, x_axis="time", y_axis="mel", sr=sampling_rate, fmax=8000, ax = axis[1])
axis[1].set_title("Мел-спектрограмма", fontsize = 20)
plt.tight_layout()
Наглядное отличие представлено на рисунке ниже:
На этом с теорией звука все, переходим к обзору решений.
Задача TTS
Text-to-speech (TTS) – задача преобразования текста в речь, над решением которой люди работают уже достаточно долго (вспоминая того же Стивена Хокинга). Ранние методы имели в своей основе алгоритмы конкатенации предписанных фонем, однако сгенерированная таким образом речь не имела интонации, не передавала особенности голоса человека и в целом звучала неестественно. Сегодня машинные методы позволяют не только воспроизводить правильные интонации, но и копировать речь людей, хоть и не со 100%-ной схожестью, но с общими чертами и сохранением узнаваемости.
Общие подходы ML к решению TTS
Современные генеративные модели для синтеза звука либо состоят из нескольких логических компонентов, либо являются так называемыми end-to-end-моделями. Подробнее о развитии архитектур можно почитать в этой статье.
Возможные компоненты TTS
Акустические модели генерируют акустические параметры (наиболее часто используемым акустическим параметром является мел-спектрограмма) из лингвистических характеристик или напрямую из фонем или символов. Или, например, в end-to-end-пайплайне модели не требуют сопоставления между языковыми и акустическими фичами, они неявно выучивают данные закономерности и тем самым требуют меньше предварительной обработки.
Существующие решения
coqui.ai / TTS
Этот проект включает в себя множество уже обученных моделей для популярных языков, а также обширный репозиторий кода и документации для самостоятельного обучения. Тут есть и советы по созданию своего датасета, готовые ноутбуки для его проверки, а также «рецепты» по обучению с нуля.
В пределах предобученных моделей русский язык генерируется в мультиязычных моделях, таких как xtts_v1, xtts_v2, bark. Вот примеры генерации каждой из 3 моделей:
Исходя из качества генерации, наиболее подходящей является xtts_v2. Для генерации нового аудио модель может принимать на вход референсный голос или использовать один из 58 (!) встроенных голосов.
Качество выходного аудио сильно коррелирует с качеством референса. Как советует автор, референс должен быть длиной 4-6 секунд и не иметь посторонних шумов, кроме самого голоса.
Архитектура модели представлена в статье, и есть небольшой блог, который ведет разработчик. Вот что он говорит по поводу xtts_v1:
«Подход, используемый в xtts, включает использование диффузионных моделей для перевода выхода GPT-модели в фрейм спектрограммы, далее с помощью UnivNet происходит генерация окончательного аудиосигнала».
Во второй версии xtts разработчики применяют модель Perceiver для выделения латентного вектора, несущего информацию о спикере, а для генерации финальной аудиодорожки они перешли на популярный вокодер HifiGAN.
Для примера сгенерируем несколько голосов известных личностей:
В целом голос переносится +- похоже, общие черты улавливаются, однако специфические интонации речи не всегда реализуются в выходном аудио. Частично при переносе голоса переносятся и ярко выраженные интонации из отрывка референса (вскрики, эмоциональные восклицания или приглушенность речи), из-за этого на выходе могут получиться неровная речь и выделение интонацией в местах, где его быть не должно. Поэтому аудио для референса лучше подбирать со спокойной речью. Также при указании нескольких семплов референса качество выходного аудио улучшается, а при использовании студийной записи без фонового шума получается совсем хорошо!
Bark
Модель на основе трансформеров от компании Suno. Она может генерировать высокореалистичную мультиязычную речь, а также фоновый шум и звуковые эффекты.
Поскольку Bark является полностью генеративной text-to-audio-моделью и ее архитектура похожа на GPT, то и выходное аудио, которое генерируется с нуля, может иметь некоторые особенности. Например, разработчики заявляют, что выходное аудио может генерироваться в любом, в том числе и плохом качестве. Такой подход к разработке пайплайна text-to-speech имеет также и свои плюсы. Так как модель не прибегает к разложению текста на фонемы, то ее возможности генерации не ограничиваются только речью. При задании в промт текста определенных паттернов можно добиться генерации смеха, музыки или вздохов. Сами паттерны не являются чем-то, что задают разработчики, а представляют собой найденные эмпирическим способом команды, которые понимает и более или менее стабильно воспроизводит в аудио модель.
Вот примеры запуска модели с паралингвистическими и эмоциональными звуками:
Правда, во время их создания было переслушано много семплов плохого качества...
Как видим, паттерны не всегда срабатывают, качество генерации скачет, но произношение самих слов правильное и в основном без пропусков. Глобально, если говорить про смех, то подставляются или рандомный смешок, или психопатическая истерия. Иногда модель может предугадать логику текста, например, при передаче диалога озвучивает сам диалог, без имен действующих лиц.
Полагаться как на стабильный генератор аудио не стоит, однако за возможность генерации не только голоса ставим плюс этой модели.
Для русского языка представлены 10 спикеров-промтов, из которых 7 мужских голосов и 3 женских. Большинство из промтов имеет среднее качество, а также фоновый шум. Однако при указании промта модель работает более стабильно и выдержанно по качеству.
Один голос также периодически произносит «ээээ». Как утверждают авторы, больше промтов можно найти в их сообществе в Discord (правда, там вы найдете больше про генерацию песен).
Silero
Русскоязычный проект (кстати, у них есть еще блог на «Хабре», в котором можно еще более подробно ознакомиться с решением) активно развивается и поддерживается разработчиками. Проект открытый и бесплатный, но код для обучения и архитектуры моделей не представлены. В общем доступе расположен репозиторий с предобученными моделями. Список моделей крайне обширный, поражают наличие и качество моделей для языков, использующих специфическую кириллицу, например, узбекского или калмыцкого языков. Вот пример генерации калмыцкой речи:
На мой наполовину калмыцкий взгляд, звучит отлично. Слышно специфику калмыцкой речи, да и голос сам калмыцкий, что бы это ни значило.
У Silero поддерживается генерация на 3 частотах дискретизации (8000, 24 000, 48 000). Для сравнения:
Для 4-й версии модели представлены 5 голосов (aidar, baya, kseniya, xenia, eugene) и рандомный голос, который можно сохранить и использовать для дальнейшей генерации. Кроме того, Silero предоставляет также модель SSML для расстановки ударений и просодий.
Сравнение решений
coqui(xtts) |
silero |
bark |
|
особенности |
генерация голоса по референсу |
поддержка расширенной кириллицы, генерация речи с акцентом (модели, обученные на голосах представителей различных национальностей России и СНГ) |
генеративная модель с возможностями генерации неречевых звуков (смеха и т. п.), а также большим комьюнити |
стриминг |
есть |
нет |
нет |
поддержка и документация |
поддержка сайта закончилась, есть модель на Hugging face |
сайт с документацией |
сообщество в Discord |
тип модели |
text-to-speech |
text-to-speech |
text-to-audio |
частоты дискретизации |
24 кГц |
8, 24, 48 кГц |
24 кГц |
встроенные голоса |
на основе референса + 58 голосов |
5 голосов и random |
10 и random |
архитектура |
диффузионная модель на основе GPT, Perceiver + HifiGAN |
возможно, семейство Tacotron |
GPT-архитектура |
характер генерации |
авторегрессионный |
- |
end-to-end |
качество генерации |
хорошее |
хорошее |
плохое |
файнюнинг |
есть |
нет |
нет* |
Vosk-tts
Модель на основе VITS. Генерация как из командной строки, так и из Python API. Есть 5 русских голосов (3 женских и 2 мужских). Частота дискретизации 22 кГц. Генерирует относительно быстро.
Как слышим, с интонациями у модели в целом все нормально. Кроме того, есть подробный пайплайн для файнтюнинга модели на небольшом количестве данных. Так что у кого есть доступ хотя бы к одной видеокарте, можете попробовать обучить говорилку со своим голосом. В репозитории также есть возможность реализовать копирование голоса.
По сравнению с coqui (у которого тоже открытый код), этот проект ведет русский разработчик. Поэтому я думаю, из всех рассмотренных в статье репозиториев, этот больше всего подойдет для самостоятельного обучения или файнтюнинга.
Sova-tts
Решение на архитектуре Tacotron 2. Представляет собой REST API сервис, быстро устанавливается. Минималистичный интерфейс, можно менять скорость, питч и громкость при генерации. По идее, можно обучить и добавить свои голоса в сервис. Примеры генерации:
Mimic3
Решение от MicrosoftAI на основе VITS. Есть модель для русского языка, поддерживает 1 женский и 2 мужских голоса. Из интересного: решение можно реализовать на Raspberry Pi. Качество генерации для русского языка – среднее. Есть документация, а также возможность добавления SSML-разметки к тексту.
При генерации можно регулировать скорость и т. п. Пример:
В целом генератор не пропускает и почти не коверкает слова, просто и со вкусом. В интонациях и ударениях ошибается, также обрезает звуки в конце предложения.
Подсказка: На текущий момент модели не подгружаются через lfs, поэтому сразу запустить не получится. Но найти и отдельно скачать эти модели можно на Hugging Face и все будет работать.
Piper
Еще одно решение, которое можно реализовать на Raspberry Pi от разработчика предыдущего проекта. Для русского языка представлено 3 мужских и 1 женский голос. Частота дискретизации – 22 050 Гц. Качество генерации примерно такое же, как у Mimic 3 (но по сравнению с ним не обрезает конец предложений).
SeamlessM4T-v2
Модель генерирует русский язык как напрямую, так и реализует пайплайн TTS для русского языка путем генерации текста по английскому промту с дальнейшим переводом его на русский язык. В целом очень интересная реализация. Частота дискретизации – 16 кГц. На русском языке качество ниже среднего и, как мне показалось, переносится акцент.
ЗАКЛЮЧЕНИЕ
Модели по генерации голоса имеют множество архитектурных реализаций, у каждой из которых есть свои плюсы и минусы. Использовать реализованные уже кем-то модели – это зависеть от их решения и его доступности, предобученные модели зачастую будет сложно или невозможно зафайнтюнить самостоятельно. Однако если задача тривиальна и не будет требовать в будущем улучшений качества, скорости работы или дополнительной специфики, то представленные выше проекты потенциально подойдут для задач генерации русской речи.
P. S. Если у вас есть на уме хорошие проекты по генерации русской речи, которые вы не нашли в этой статье, то можете делиться ссылками на них в комментариях.
Комментарии (11)
alexs963
30.10.2024 14:14Забыли про rh-voice: https://rhvoice.ru
HelloLena Автор
30.10.2024 14:14RHVoice не вошел в обзор, потому что в его основе лежит статистический параметрический синтез. Но тоже имеет место быть, да и языки интересные поддерживает.
nikolz
30.10.2024 14:14Есть еще такое решение https://github.com/festvox/flite
Достоинство в том, что это решение работает примерно в 10 раз быстрее моделей на нейросетях и требует ресурсов примерно в 100 раз меньше. Я его уместил в ESP8266.
UtrobinMV
30.10.2024 14:14Добрый день! Эту модельку забыли добавить для сравнения. https://huggingface.co/utrobinmv/tts_ru_free_hf_vits_low_multispeaker Модель тоже на базе VITS, имеет свой словарь состоящий из букв русского алфавита, работает на Transformers без дополнительного кода, имеет ONNX версию, и двухголосый режим работы. Должна без особых проблем заводится на Triton Inference Server. Так же есть расширенная версия, которая училась сама расставлять ударения https://huggingface.co/utrobinmv/tts_ru_free_hf_vits_high_multispeaker
snakers4
30.10.2024 14:14Русскоязычный проект (кстати, у них есть еще блог на «Хабре», в котором можно еще более подробно ознакомиться с решением) активно развивается и поддерживается разработчиками. Проект открытый и бесплатный, но код для обучения и архитектуры моделей не представлены. В общем доступе расположен репозиторий с предобученными моделями. Список моделей крайне обширный, поражают наличие и качество моделей для языков, использующих специфическую кириллицу, например, узбекского или калмыцкого языков. Вот пример генерации калмыцкой речи:
Большое спасибо за упоминание и добрые слова. На заказ недавно делали, например, синтез на якутском языке, статья собрала много плюсов, мы аж удивились.
Сейчас делаем несколько интересных проектов, о них публика узнает из релизов на Хабре, надеюсь, если заказчики не будут против публикаций.
возможно, семейство Tacotron
А откуда такая информация? Ну как минимум такую скорость такотрон выдать не может в принципе …
На мой наполовину калмыцкий взгляд, звучит отлично. Слышно специфику калмыцкой речи, да и голос сам калмыцкий, что бы это ни значило.
Кириллические модели тут сделаны не на очень качественных данных, это скорее некоторая демка возможного, тут есть некоторые идеи и планы, но пока не случилось, рано говорить.
У Silero поддерживается генерация на 3 частотах дискретизации (8000, 24 000, 48 000). Для сравнения:
Для 4-й версии модели представлены 5 голосов (aidar, baya, kseniya, xenia, eugene) и рандомный голос, который можно сохранить и использовать для дальнейшей генерации. Кроме того, Silero предоставляет также модель SSML для расстановки ударений и просодий.
Публично доступны модели где-то 2 годичной давности, и в
v4
чуть скрутили качество. Логика тут такая, что публичные модели это по сути такая демка.Мы давно думаем про
v5
релиз, и там есть ряд вещей, которые бы хотелось покрыть, допустим обновить расстановку ударений, докинуть расстановку омографов, поднять качество и повысить скорость (там где-то на 40% более медленные модели сейчас).Вообще у нас есть бот, где можно послушать более актуальные голоса (вкладка "Голоса Силеро"). Вот ещё актуальные примеры звучания и примеры интонации на конкретные слова, которые мы делали для ЦБ РФ. Не помню, залили ли в бота актуальные модели, кажется забыли прокинуть некоторые голоса в бота.
Из важных моментов, что тут не отражены от слова совсем:
Важно всегда говорить про продуктовость и скорость моделей. Грубо говоря вы приводите решения, которые по скорости работы и продуктовости могут отличаться на многие порядки. К примеру, большие рекуррентные модели медленно работают даже на GPU и не подходят для продакшена.
Наши актуальные модели (не те, которые в репозитории) имеют вот такую скорость работы (в секундах сгенерированного аудио в секунду), что по сути делает стриминг ненужным (актуальные модели - new):
Скрытый текст
Также немаловажно отметить, что:
Наше ПО находится в реестре отечественного ПО;
Наша компания находится в реестре МинЦифры;
Наши модели упакованы в сервис, который у заказчиков поднимается одной командой и работает как на 1-2 ядрах процессора, так и на GPU с очень высокой скоростью (!);
Есть SSML и у приватных моделей есть выделение слов интонаций (мы всё никак не можем докатить ряд мелочей);
Мы также делаем кастомные голоса и чуть более сложные системы для наших клиентов на заказ (яркий пример - якутский язык);
PS
И да, когда запинаем новое, узнать можно будет тут и тут. Так-то по идее ускорение, ударение, омографы, повышение качества и интонации готовы, но времени собраться на публичный релиз всё не хватает.
HelloLena Автор
30.10.2024 14:14Да, вы правы, действительно сравнить модели по скорости было бы очень полезно, но на текущем этапе решили составить просто обзор на то, что есть и в каком формате оно доступно. Мне кажется, если уже и начинать проводить какие-то более сложные тестирования, то делать это совсем ответственно и более расширено, что может потянуть на еще одну статью.
Спасибо за подробный разбор и дополнительные комментарии, прошу не судить строго за неточности - это моя первая статья.
Advisory
30.10.2024 14:14Что можно посоветовать для логопедов для автоматического контроля за произношением? Есть несколько контрольных фраз и упражнений на проговаривание. Нужно контролировать качество произношения. Такой себе voice-to-control :-)
HelloLena Автор
30.10.2024 14:14Очень интересная задача, но слишком специализированная. К сожалению, данный момент ничего на ум не приходит.
d-sh
Если кому то нужны русские голоса без генерации на своем оборудовании то есть 2 варианта, гугл и микрософт. У гугла для русского языка 1 женский голос, у микрософта мужской+женский+4 пары мультиязычных (они звучат натуральнее но хуже разворачивают сокращения и цифры и чаще путают ударения в русских текстах).
https://github.com/rany2/edge-tts
https://github.com/pndurette/gTTS
Неплохо было бы найти подобное для голоса из яндекс браузера.