Музыка, неотъемлемая часть человеческой культуры, всегда отражала дух времени. Однако с наступлением цифровой эры и быстрого развития технологий, музыкальная индустрия столкнулась с революцией, которая изменила не только способы создания и распространения музыки, но и сам способ, которым мы взаимодействуем с ней. Сегодня музыкальные платформы и сервисы предоставляют нам огромный выбор композиций, а важную роль в этом процессе играют технологии аудиоаналитики.

Роль анализа музыкальных предпочтений для понимания аудитории

Что делает песню хитом? Какие элементы музыки заставляют нас нажимать "пропустить" или добавлять трек в свой плейлист? Ответы на эти вопросы лежат в понимании музыкальных предпочтений слушателей. Анализ этих предпочтений — это не только путь к более точным рекомендациям, но и ключ к пониманию наших эмоциональных реакций на музыку. Именно здесь на сцену выходит аудиоаналитика.

Профессиональные музыканты и продюсеры всегда пытались прочувствовать вкусы аудитории, но современные технологии позволяют подойти к этому вопросу более системно. Аудиоаналитика предоставляет инструменты для извлечения количественных данных из музыки, таких как темп, тональность, громкость, акустические характеристики и многое другое. Эти данные могут быть использованы для выявления образцов и тенденций в музыкальных вкусах.

Возможности аудиоаналитики и Python в данной области

Аудиоаналитика, основанная на данных, предоставляемых музыкальными платформами и сервисами, открывает перед исследователями и индустрией множество перспектив. Однако для эффективного анализа огромных объемов аудиоданных требуется мощный инструментарий. И здесь Python становится незаменимым инструментом благодаря своей простоте, гибкости и богатой экосистеме библиотек.

Библиотека Librosa, например, предоставляет возможности для извлечения аудиофункций из звуковых файлов. Она позволяет анализировать спектрограммы, извлекать характеристики звуков, определять темп и тональность композиций. Такие данные могут служить основой для детального исследования музыкальных паттернов и разнообразия.

Основы аудиоаналитики

Аудиоаналитика - это процесс извлечения полезной информации из аудиоданных, таких как музыкальные треки, голосовые записи, звуки окружающей среды и т.д. Она объединяет техники анализа звуковой волны, спектрального анализа и множество других методов для получения инсайтов о структуре, характеристиках и содержании аудиофайлов.

Важной частью аудиоаналитики является извлечение акустических особенностей, таких как темп, ритм, тембр, тональность и другие музыкальные параметры. Благодаря этим параметрам, можно описать аудиотрек количественно, создавая некий "музыкальный отпечаток" для дальнейшего анализа.

Основные этапы обработки аудиоданных

Процесс аудиоаналитики включает несколько ключевых этапов, каждый из которых играет важную роль в получении полезных результатов:

  1. Предварительная обработка: На этом этапе аудиоданные могут быть нормализованы, фильтрованы и преобразованы в удобный формат для дальнейшего анализа. Важно убедиться, что аудиофайлы имеют схожий уровень громкости и подходящий спектральный диапазон.

  2. Извлечение акустических особенностей: Используя библиотеки, такие как Librosa, Python позволяет извлекать разнообразные акустические характеристики из аудиофайлов. Эти параметры включают в себя мел-частотные кепстральные коэффициенты (MFCC), хроматограммы, темп, ритм и многое другое.

  3. Анализ и визуализация: Полученные акустические характеристики могут быть проанализированы и визуализированы. Например, можно построить спектрограммы для визуализации спектральной структуры звука.

  4. Моделирование и интерпретация: На этом этапе акустические особенности могут быть использованы для построения моделей предпочтений аудитории. Это может включать в себя кластеризацию треков по схожим характеристикам или предсказание жанра музыки на основе акустических данных.

  5. Применение результатов: Результаты аудиоаналитики могут быть использованы для создания более персонализированных музыкальных рекомендаций, оптимизации процессов создания музыки и адаптации контента под интересы аудитории.

Основные признаки аудио

A. Спектральные характеристики

1. Спектрограмма

Спектрограмма – это визуализация спектрального состава аудиосигнала во времени. Она позволяет нам увидеть, какие частоты преобладают в аудиоданных на различных участках трека. С помощью библиотеки Librosa в Python, вы можете легко создать спектрограмму для аудиофайла. Этот инструментарий открывает двери к анализу частотного содержания треков и может быть использован для распознавания музыкальных инструментов или даже выявления аномалий в записи.

2. Мел-частотные кепстральные коэффициенты (MFCC)

MFCC - это компактное представление аудиосигнала, которое имитирует способность человеческого слуха различать частоты. Вычисление MFCC включает в себя несколько этапов, включая преобразование Фурье, применение мел-фильтров и логарифмирование амплитуд спектральных компонент. Полученные коэффициенты обычно используются в задачах распознавания речи, но они также могут быть полезными для анализа музыкальных характеристик, таких как тембр и инструментация.

B. Ритмические характеристики

1. Темп

Темп – это скорость, с которой происходит музыкальное произведение. Анализ темпа позволяет понять, насколько быстро или медленно развивается музыка, что может иметь значительное влияние на наше восприятие и настроение. Извлечение темпа из аудиоданных может быть выполнено с использованием алгоритмов, основанных на анализе уровня громкости и выявлении периодических ритмических пульсаций.

2. Ритмограммы

Ритмограммы представляют собой визуальное представление о ритмических характеристиках музыки. Они помогают исследователям и музыкантам определить, какие ритмические структуры присутствуют в музыке, например, акценты на определенных долях времени. Анализ ритмограмм может помочь раскрыть уникальные ритмические паттерны различных жанров или даже идентифицировать авторов музыкальных композиций.

Когда мы объединяем спектральные и ритмические характеристики, мы получаем увлекательный инструментарий для анализа и классификации музыкальных произведений.

Использование Python в аудиоаналитике

Python предоставляет мощные инструменты для обработки аудиоданных, рассмотрим некоторые важные библиотеки и практические примеры задач, которые можно успешно решить с их помощью.

Обзор библиотек для работы с аудиоданными

  1. Librosa: Это универсальная библиотека для аудиоанализа. Она позволяет извлекать множество аудиофункций, таких как спектрограммы, хромограммы, темп и мел-частотные кепстральные коэффициенты (MFCC). Librosa облегчает извлечение важных характеристик из аудиофайлов и их последующий анализ.

  2. pydub: Эта библиотека обеспечивает простой интерфейс для манипулирования аудиофайлами. Вы можете нарезать, склеивать, изменять громкость, применять фильтры и эффекты к аудиофайлам. pydub упрощает обработку аудио и создание новых аудиоматериалов.

  3. Essentia: Это мощная библиотека для аудиоанализа с открытым исходным кодом. Она предоставляет множество алгоритмов для извлечения акустических характеристик, таких как темп, ритм, тон, спектр и многое другое. Essentia позволяет более глубокий анализ музыкальных данных.

Основные функции библиотек

Библиотека Librosa

Librosa предоставляет разнообразные функции для аудиоанализа и извлечения музыкальных характеристик:

  1. librosa.load(file_path, sr=None): Загрузка аудиофайла. file_path - путь к аудиофайлу, sr - частота дискретизации (по умолчанию сохраняется из файла).

  2. librosa.feature.mfcc(y=None, sr=22050, n_mfcc=20): Извлечение мел-частотных кепстральных коэффициентов (MFCC) из аудиоданных. y - временной ряд аудиоданных, sr - частота дискретизации, n_mfcc - количество коэффициентов.

  3. librosa.feature.chroma_stft(y=None, sr=22050): Извлечение хромограммы из аудиоданных. Позволяет анализировать распределение тональных центров по времени.

  4. librosa.beat.beat_track(y=None, sr=22050): Определение темпа и битовой доли в аудиоданных.

Библиотека pydub

pydub упрощает манипулирование аудиофайлами с помощью простого интерфейса. Основные функции:

  1. AudioSegment.from_file(file, format=None): Загрузка аудиофайла. file - путь к файлу, format - формат файла.

  2. AudioSegment.export(out_f, format=None): Экспорт аудио в файл. out_f - имя выходного файла, format - желаемый формат.

  3. audio_segment[start:end]: Извлечение сегмента аудио. start и end - временные точки.

  4. audio_segment + other_audio_segment: Склеивание аудио.

  5. audio_segment.fade_in(duration): Плавное появление звука на начале аудио.

  6. audio_segment.fade_out(duration): Плавное затухание звука на конце аудио.

Библиотека Essentia

Essentia предоставляет богатый набор алгоритмов для более глубокого аудиоанализа:

  1. ess.MusicExtractor(): Класс для извлечения множества музыкальных характеристик из аудиофайла.

  2. ess.RhythmExtractor(): Класс для извлечения информации о ритме и темпе.

  3. ess.KeyExtractor(): Класс для извлечения информации о тональности.

  4. ess.PitchExtractor(): Класс для извлечения информации о высоте звучания (тональности).

  5. ess.SpectralPeaks(): Алгоритм для извлечения пиков из спектрограммы.

  6. ess.FilteredSpectrum(): Алгоритм для выделения определенных частотных диапазонов из спектрограммы.

Эти функции и классы позволяют более подробно исследовать акустические характеристики аудиоданных и проводить более сложный анализ музыкальных данных.

Сбор данных для анализа музыкальных предпочтений

Сбор и анализ данных стали неотъемлемой частью практически всех сфер, и музыкальная индустрия не является исключением. Анализ музыкальных предпочтений основан на обширных наборах данных, которые позволяют понимать, какие треки, жанры и артисты находятся в центре внимания слушателей. В этом разделе мы рассмотрим важность сбора данных для анализа музыкальных предпочтений, расскажем о различных источниках данных и поделимся методами их подготовки для дальнейшего анализа.

Источники данных: стриминговые платформы, онлайн-радио и другие

Современные технологии позволяют нам иметь постоянный доступ к огромным объемам данных. Сбор данных о музыкальных предпочтениях осуществляется через различные источники:

  1. Стриминговые платформы: Популярные сервисы, такие как Spotify, Apple Music, Deezer и другие, предоставляют огромное количество данных о проигрывании треков, созданных плейлистах и оценках пользователей.

  2. Онлайн-радио и интернет-платформы: Радиостанции, которые транслируют музыку онлайн, также могут собирать данные о том, какие композиции популярны у их слушателей.

  3. Социальные сети: Платформы, такие как YouTube и SoundCloud, предоставляют данные о числе прослушиваний, лайках, комментариях и репостах.

  4. Опросы и анкеты: Исследователи и маркетологи могут проводить опросы, чтобы понять музыкальные вкусы и предпочтения различных аудиторий.

Особенности данных для анализа

Понимание особенностей данных является ключевым шагом для успешного анализа музыкальных предпочтений. Важно учитывать следующие аспекты:

  1. Многообразие форматов: Данные могут быть представлены в разных форматах, включая аудиофайлы, текстовые описания, числовые оценки и даже изображения.

  2. Незавершенные данные: Некоторые пользователи могут начать проигрывание трека, но не дослушать его до конца. Это может повлиять на интерпретацию популярности треков.

  3. Динамическая природа данных: Предпочтения слушателей могут меняться со временем, а новые артисты и треки могут внезапно стать популярными.

Процесс сбора и подготовки аудиоданных для анализа

Сбор и анализ аудиоданных требует предварительной обработки, чтобы получить репрезентативные и полезные результаты. Вот несколько этапов этого процесса:

  1. Сбор и хранение данных: Данные с различных источников собираются, структурируются и сохраняются в удобном формате для дальнейшего использования.

  2. Извлечение характеристик: Из аудиофайлов извлекаются акустические характеристики с помощью библиотеки Librosa или Essentia. Это может быть спектрограмма, MFCC и другие параметры.

  3. Обработка пропусков и выбросов: Данные могут содержать пропущенные значения или выбросы, которые могут исказить анализ. Проводится очистка данных и заполнение пропусков.

  4. Нормализация и масштабирование: Для более точного анализа данные нормализуются или масштабируются, чтобы уровни значений были сопоставимы.

  5. Агрегация данных: Для учета разных временных масштабов данные могут быть агрегированы по дням, неделям или месяцам.

Правильный сбор, обработка и представление данных обогащают наше понимание аудитории и помогают выявить тренды и особенности, которые формируют музыкальную индустрию сегодня и завтра.

Анализ музыкальных характеристик

Извлечение акустических особенностей с помощью библиотеки Librosa

Рассмотрим примеры извлечения спектрограммы, MFCC и хромограммы:

Пример 1: Извлечение и визуализация спектрограммы

import librosa
import librosa.display
import matplotlib.pyplot as plt

# Загрузка аудиофайла
audio_path = "sample_track.wav"
y, sr = librosa.load(audio_path)

# Вычисление спектрограммы
spectrogram = librosa.feature.melspectrogram(y=y, sr=sr)

# Визуализация спектрограммы
plt.figure(figsize=(10, 6))
librosa.display.specshow(librosa.power_to_db(spectrogram, ref=np.max), y_axis='mel', x_axis='time')
plt.colorbar(format='%+2.0f dB')
plt.title("Спектрограмма")
plt.show()

Анализ тембра, темпа, мелодичности и других параметров

Продолжим анализировать полученные акустические характеристики, чтобы раскроить тембр, темп и мелодичность музыки:

Пример 2: Извлечение и анализ MFCC

import librosa
import numpy as np

# Загрузка аудиофайла
audio_path = "sample_track.wav"
y, sr = librosa.load(audio_path)

# Извлечение MFCC
mfccs = librosa.feature.mfcc(y=y, sr=sr, n_mfcc=13)

# Средние значения MFCC по времени
mean_mfccs = np.mean(mfccs, axis=1)

print("Средние значения MFCC:")
print(mean_mfccs)

Визуализация аудиоданных и характеристик треков

Визуализация играет важную роль в анализе музыкальных данных. Она позволяет наглядно представить характеристики треков:

Пример 3: Визуализация хромограммы

import librosa
import librosa.display
import matplotlib.pyplot as plt

# Загрузка аудиофайла
audio_path = "sample_track.wav"
y, sr = librosa.load(audio_path)

# Вычисление хромограммы
chromagram = librosa.feature.chroma_stft(y=y, sr=sr)

# Визуализация хромограммы
plt.figure(figsize=(10, 6))
librosa.display.specshow(chromagram, y_axis='chroma', x_axis='time')
plt.colorbar()
plt.title("Хромограмма")
plt.show()

Комбинируя эти методы, вы можете получить глубокое понимание музыкальных параметров и использовать их для дальнейшего анализа и предсказаний музыкальных предпочтений слушателей.

Примеры задач

Автоматическое распознавание жанров

Библиотека Librosa в сочетании с машинным обучением позволяет создать модель для распознавания жанров музыки. Например, вы можете использовать набор аудиофайлов разных жанров, извлечь характеристики с помощью Librosa и обучить модель классификации.

import librosa
import numpy as np
from sklearn.model_selection import train_test_split
from sklearn.svm import SVC

# Загрузка и извлечение характеристик аудиофайлов
data, labels = [], []

for file_path in jazz_audio_files:
    y, sr = librosa.load(file_path)
    mfccs = librosa.feature.mfcc(y=y, sr=sr)
    data.append(np.mean(mfccs, axis=1))
    labels.append('jazz')

# Аналогично для других жанров

# Разделение данных на тренировочный и тестовый наборы
X_train, X_test, y_train, y_test = train_test_split(data, labels, test_size=0.2)

# Обучение модели классификации
model = SVC()
model.fit(X_train, y_train)

# Оценка точности модели
accuracy = model.score(X_test, y_test)
print(f"Точность модели: {accuracy}")

Поиск схожих треков

С помощью вычисления музыкальных характеристик и метрик сходства, вы можете создать функциональность поиска похожих треков на основе аудиоданных. Здесь мы используем библиотеку Essentia для извлечения характеристик и SciPy для вычисления косинусного сходства.

import essentia.standard as ess
from scipy.spatial.distance import cosine

# Извлечение характеристик аудиофайла с помощью Essentia
extractor = ess.MusicExtractor()
features = extractor('sample_track.mp3')

# Характеристики для сравнения
query_features = [features['rhythm.bpm'], features['tonal.key'], features['tonal.tuning']]

similar_tracks = []

# Поиск схожих треков в базе данных
for track in database:
    similarity = 1 - cosine(query_features, track['features'])
    if similarity > 0.8:
        similar_tracks.append(track['title'])

print("Схожие треки:")
for track in similar_tracks:
    print(track)

Определение темпа и изменение скорости

Иногда требуется изменить темп или скорость трека, сохраняя при этом качество аудио. С библиотекой pydub это можно сделать легко:

from pydub import AudioSegment

# Загрузка аудиофайла
audio = AudioSegment.from_file("input_track.wav", format="wav")

# Увеличение скорости на 10%
new_speed = 1.1
new_audio = audio.speedup(playback_speed=new_speed)

# Сохранение нового аудиофайла
new_audio.export("output_track_speed_up.wav", format="wav")

Анализ мелодичности и настроения

С помощью библиотеки Librosa можно провести анализ музыкальной мелодичности и определить характерное настроение композиции. Например, мы можем извлечь MFCC коэффициенты для трека, а затем используя статистические методы, определить, является ли трек более позитивным или скорее грустным.

import numpy as np
# Загрузка аудиофайла
audio_file = 'sample_track.mp3'
y, sr = librosa.load(audio_file)
# Извлечение MFCC коэффициентов
mfccs = librosa.feature.mfcc(y=y, sr=sr)
# Вычисление среднего коэффициента для анализа настроения
mean_mfccs = np.mean(mfccs, axis=1)
# Определение настроения на основе среднего значения
mood = 'позитивное' if mean_mfccs[2] > mean_mfccs[9] else 'грустное'
print(f"Настроение трека: {mood}")

Идентификация ритмических особенностей

С помощью анализа темпа и ритма, можно определить жанр и стиль музыкальной композиции. Библиотека Librosa предоставляет функциональность для извлечения темпа и битовой доли, что позволяет более глубоко понять ритмические характеристики трека.

# Извлечение темпа и битовой доли
tempo, beat_frames = librosa.beat.beat_track(y=y, sr=sr)
print(f"Темп трека: {tempo} BPM")

Создание аудиофайлов с эффектами

С использованием библиотеки pydub, вы можете создавать новые аудиофайлы с различными эффектами. Допустим, вы хотите создать эхо эффект для аудиозаписи:

from pydub import AudioSegment
from pydub.effects import reverb
# Загрузка аудиофайла
audio = AudioSegment.from_file("input_track.wav", format="wav")
# Применение эхо эффекта
audio_with_reverb = reverb(audio, reverberance=50)
# Сохранение нового аудиофайла
audio_with_reverb.export("output_track_with_reverb.wav", format="wav")

Построение модели предпочтений

Построение модели предпочтений - это шаг, который превращает собранные аудиоаналитические данные в ценные инсайты о музыкальных вкусах слушателей.

Создание признакового описания треков на основе аудиоаналитики

Создание признаков - ключевой этап, который преобразует аудиоаналитические данные в численные характеристики, понятные для модели машинного обучения. Для этого мы используем библиотеку Librosa для извлечения акустических особенностей, таких как MFCC, хромограммы и другие.

import librosa
import numpy as np

def extract_features(audio_path):
    y, sr = librosa.load(audio_path)

    # Извлечение MFCC, хромограммы и спектрального центроида
    mfccs = librosa.feature.mfcc(y=y, sr=sr, n_mfcc=13)
    chroma = librosa.feature.chroma_stft(y=y, sr=sr)
    spectral_centroid = librosa.feature.spectral_centroid(y=y, sr=sr)
    
    # Создание признакового вектора путем объединения характеристик
    features = np.concatenate((np.mean(mfccs, axis=1), np.mean(chroma, axis=1), np.mean(spectral_centroid)))

    return features

# Пример вызова функции для одного трека
audio_path = "sample_track.wav"
track_features = extract_features(audio_path)
print("Признаки трека:")
print(track_features)

Выбор метода анализа и построения модели

Выбор метода зависит от конкретных целей анализа. Для примера рассмотрим построение модели классификации на основе данных аудиоаналитики с использованием библиотеки Scikit-Learn. Мы будем классифицировать треки на жанры музыки.

from sklearn.model_selection import train_test_split
from sklearn.preprocessing import StandardScaler
from sklearn.ensemble import RandomForestClassifier
from sklearn.metrics import accuracy_score

# Подготовка данных (features_list - список признаков треков, labels_list - метки жанров)
X = np.array(features_list)
y = np.array(labels_list)

# Разделение на обучающую и тестовую выборки
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)

# Нормализация данных
scaler = StandardScaler()
X_train_scaled = scaler.fit_transform(X_train)
X_test_scaled = scaler.transform(X_test)

# Обучение модели
model = RandomForestClassifier(n_estimators=100, random_state=42)
model.fit(X_train_scaled, y_train)

# Предсказание
y_pred = model.predict(X_test_scaled)

# Оценка точности
accuracy = accuracy_score(y_test, y_pred)
print("Точность модели:", accuracy)

Обучение модели предпочтений на основе данных аудиоаналитики

Обучение модели предпочтений - это процесс, который находит закономерности между аудиоаналитическими признаками и предпочтениями слушателей.

Рассмотрим пример обучения модели предпочтений на основе данных аудиоаналитики с использованием библиотеки Scikit-Learn. В данном примере мы будем использовать метод классификации на основе алгоритма случайного леса. Мы предполагаем, что у нас есть набор признаков X и соответствующие метки предпочтений y.

from sklearn.model_selection import train_test_split
from sklearn.ensemble import RandomForestClassifier
from sklearn.metrics import accuracy_score

# Подготовка данных (X - признаки, y - метки предпочтений)
# Замените X и y на свои данные

# Разделение на обучающую и тестовую выборки
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)

# Создание и обучение модели
model = RandomForestClassifier(n_estimators=100, random_state=42)
model.fit(X_train, y_train)

# Предсказание на тестовых данных
y_pred = model.predict(X_test)

# Оценка точности модели
accuracy = accuracy_score(y_test, y_pred)
print("Точность модели:", accuracy)

В этом коде мы:

  1. Разделили данные на обучающую и тестовую выборки, чтобы проверить эффективность модели на независимых данных.

  2. Создали модель классификации на основе случайного леса с помощью RandomForestClassifier.

  3. Обучили модель на обучающих данных, используя метод fit.

  4. Предсказали значения на тестовых данных с помощью метода predict.

  5. Оценили точность модели, сравнив предсказанные значения с фактическими метками, используя accuracy_score.

Учтите, что в реальном сценарии подбор гиперпараметров и более сложная обработка данных могут потребоваться для достижения наилучших результатов.

Заключение

От создания признаковых векторов до обучения моделей, Python предоставляет инструменты для того, чтобы заложить основу индивидуальных исследований и практических решений в мире музыки. Не ограничивайте себя только извлечением акустических характеристик - дополните анализ данными о настроении, тексту и даже социальными взаимодействиями. Ваше творчество и инновационный подход могут открыть новые горизонты для понимания того, что делает музыку особенной и значимой.

Другие аспекты аналитики и актуальные инструменты можно в короткие сроки изучить на онлайн-курсах по аналитике в Отус. Также пара слов про открытые уроки, которые пройдут 11 сентября:

1) Рассмотрим понятие архитектура предприятия и ее связь с задачами бизнес-анализа, определим точки роста бизнес-аналитика и важность задачи проектирования бизнес-архитектуры. Регистрация на странице курса «Бизнес-аналитик в IT».

2) Загрузим и проанализируем учебный набор данных с помощью Pandas. Очистим данные от пропусков и дубликатов для повышения их качества. И, наконец, используем различные методы трансформации данных: группировка, транспонирование строк или столбцов и другие. Регистрация на странице курса «BI-аналитика».

Комментарии (3)


  1. Spaceoddity
    30.08.2023 14:38

    Аудиоаналитика предоставляет инструменты для извлечения количественных данных из музыки, таких как темп, тональность, громкость, акустические характеристики и многое другое. Эти данные могут быть использованы для выявления образцов и тенденций в музыкальных вкусах.

    Дальше читать не стал! Это всё абсолютная фикция.

    Я немного разбираюсь в теории музыки и у меня достаточно обширный музыкальный вкус. Конкретно по каждому критерию:

    Темп - полная ерунда. Мне нравятся композиции от ларго до престиссимо. Никакой закономерности тут выловить невозможно.

    Тональность - ещё бОльшая ерунда! Я абсолютно спокойно воспринимаю любимые композиции в транспозиции. Более того, подавляющее большинство людей не обладает абсолютным слухом - им на эту тональность откровенно плевать.

    Громкость? В смысле динамика? Точно так же не имеет никакого отношения к вкусовым предпочтениям. Некий дискомфорт легко правится или поворотом ручки громкости, или включением компрессора.

    "Акустические характеристики" - это что за зверь? Вот тут и могла бы быть зарыта собака, если бы вы раскрыли этот термин. Аранжировка? Инструментовка? ТТХ акустической системы?))

    В сухом остатке эти данные куда менее релевантны, чем даже стилевое подобие.

    Я-то думал вы там интервалы вычленяете и отношения между ними исследуете...


    1. huntaBB
      30.08.2023 14:38

      А вы точно репрезентативная выборка?

      Уверены, что на большом количестве людей это не сработает?


      1. Spaceoddity
        30.08.2023 14:38

        Уверен)) Я частенько копаюсь в чужих плэйлистах ;)