image
Источник: xkcd

Линейная регрессия является одним из базовых алгоритмов для многих областей, связанных с анализом данных. Причина этому очевидна. Это очень простой и понятный алгоритм, что способствует его широкому применению уже многие десятки, если не сотни, лет. Идея заключается в том, что мы предполагаем линейную зависимость одной переменной от набора других переменных, а потом пытаемся эту зависимость восстановить.

Но в этой статье речь пойдет не про применение линейной регрессии для решения практических задач. Здесь будут рассмотрены интересные особенности реализации распределенных алгоритмов её восстановления, с которыми мы столкнулись при написании модуля машинного обучения в Apache Ignite. Немного базовой математики, основ машинного обучения и распределенных вычислений помогут разобраться, как восстанавливать линейную регрессию, даже если данные распределены между тысячами узлов.

О чём речь?


Перед нами стоит задача восстановления линейной зависимости. В качестве входных данных дается множество векторов предположительно независимых переменных, каждому из которых ставится в соответствие некоторое значение зависимой переменной. Эти данные можно представить в виде двух матриц:

$\begin{pmatrix} a_{11} & a_{12} & a_{13} & ... & a_{1n} \\ a_{21} & a_{22} & a_{23} & ... & a_{2n} \\ ... \\ a_{m1} & a_{m2} & a_{m3} & ... & a_{mn} \\ \end{pmatrix} \begin{pmatrix} b_{1} \\ b_{2} \\ ... \\ b_{m} \\ \end{pmatrix}$


Теперь, раз уж предполагается зависимость, да к тому же еще и линейная, запишем наше предположение в виде произведения матриц (для упрощения записи здесь и далее предполагается, что свободный член уравнения скрывается за $x_n$, а последний столбец матрицы $A$ содержит единицы):

$ \begin{pmatrix} a_{11} & a_{12} & a_{13} & ... & a_{1n} \\ a_{21} & a_{22} & a_{23} & ... & a_{2n} \\ ... \\ a_{m1} & a_{m2} & a_{m3} & ... & a_{mn} \\ \end{pmatrix} \times \begin{pmatrix} x_{1} \\ x_{2} \\ ... \\ x_{n} \\ \end{pmatrix} = \begin{pmatrix} b_{1} \\ b_{2} \\ ... \\ b_{m} \\ \end{pmatrix} $


Очень похоже на систему линейных уравнений, не так ли? Похоже, но решений у такой системы уравнений скорее всего не будет. Причиной тому является шум, который присутствует практически в любых реальных данных. Так же причиной может быть отсутствие линейной зависимости как таковой, с которой можно пытаться бороться введением дополнительных переменных, нелинейно зависящих от исходных. Рассмотрим следующий пример:
image
Источник: Wikipedia

Это простой пример линейной регрессии, который демонстрирует зависимость одной переменной (по оси $y$) от другой переменной (по оси $x$). Чтобы соответствующая данному примеру система линейных уравнений имела решение, все точки должны лежать точно на одной прямой. Но это не так. А не лежат они на одной прямой именно из-за шума (или из-за того что предположение о наличии линейной зависимости было ошибочным). Таким образом, чтобы восстановить линейную зависимость по реальным данным обычно требуется ввести еще одно предположение: входные данные содержат шум и этот шум имеет нормальное распределение. Можно делать предположения и о других типах распределения шума, но в подавляющем большинстве случаев рассматривают именно нормальное распределение, о котором далее и пойдет речь.

Метод максимального правдоподобия


Итак, мы предположили наличие случайного нормально распределенного шума. Как же быть в такой ситуации? На этот случай в математике существует и широко используется метод максимального правдоподобия. Если кратко, его суть заключается в выборе функции правдоподобия и последующей её максимизации.

Возвращаемся к восстановлению линейной зависимости по данным с нормальным шумом. Заметим, что предполагаемая линейная зависимость является математическим ожиданием $\mu$ имеющегося нормального распределения. В то же время, вероятность того, что $\mu$ принимает то или иное значение, при условии наличия наблюдаемых $x$, выглядит следующим образом:

$P(\mu \mid X, \sigma^2) = \prod_{x \in X}{\frac{1}{\sigma\sqrt{2\pi}}\; e^{ -\frac{(x-\mu)^2}{2\sigma^2} }}$


Подставим теперь вместо $\mu$ и $X$ нужные нам переменные:

$P(x \mid A, B, \sigma^2) = \prod_{i \in [1, m]}{\frac{1}{\sigma\sqrt{2\pi}}\; e^{ -\frac{(b_i-a_ix)^2}{2\sigma^2} }}, a_i \in A, b_i \in B$


Осталось только найти вектор $x$, при котором эта вероятность максимальна. Чтобы максимизировать такую функцию удобно сначала её прологарифмировать (логарифм функции будет достигать максимума в той же точке, что и сама функция):

$f(x) = ln(\prod_{i \in [1, m]}{\frac{1}{\sigma\sqrt{2\pi}}\; e^{ -\frac{(b_i-a_ix)^2}{2\sigma^2} }})= \sum_{i \in [1, m]}ln\frac{1}{\sigma\sqrt{2\pi}}\; - \sum_{i \in [1, m]}\frac{(b_i-a_ix)^2}{2\sigma^2}$


Что, в свою очередь, сводится к минимизации следующей функции:

$f(x) = \sum_{i \in [1, m]} (b_i-a_ix)^2$


Кстати, это называется методом наименьших квадратов. Зачастую все приведенные выше рассуждения опускаются и просто используется этот метод.

QR разложение


Минимум приведенной выше функции можно найти, если найти точку в которой градиент этой функции равен нулю. А градиент будет записан следующим образом:

$\nabla f(x) = \sum_{i \in [1, m]}2a_i(a_ix - b_i)=0$


QR разложение является матричным методом решения задачи минимизации используемом в методе наименьших квадратов. В связи с этим перепишем уравнение в матричной форме:

$A^T A x = A^Tb$


Итак, мы раскладываем матрицу $A$ на матрицы $Q$ и $R$ и выполняем ряд преобразований (сам алгоритм QR разложения здесь рассматриваться не будет, только его использование применительно к поставленной задаче):

$ \begin{align} & (QR)^T (QR) x = (QR)^Tb; \\ & R^T Q^T Q R x = R^T Q^T b; \\ \end{align} $


Матрица $Q$ является ортогональной. Это позволяет нам избавиться от произведения $Q Q^T$:

$ \begin{align} & R^T R x = R^T Q^T b; \\ & (R^T)^{-1} R^T R x = (R^T)^{-1} R^T Q^T b; \\ & R x = Q^T b. \end{align} $


А если заменить $Q^T b$ на $z$, то получится $R x = z$. Учитывая, что $R$ является верхней треугольной матрицей, выглядит это следующим образом:

$ \begin{pmatrix} r_{11} & r_{12} & r_{13} & r_{14} & ... & r_{1n} \\ 0 & r_{22} & r_{23} & r_{24} & ... & r_{2n} \\ 0 & 0 & r_{33} & r_{34} & ... & r_{3n} \\ 0 & 0 & 0 & r_{44} & ... & r_{4n} \\ ... \\ 0 & 0 & 0 & 0 & ... & r_{nn} \\ \end{pmatrix} \times \begin{pmatrix} x_1 \\ x_2 \\ x_3 \\ x_4 \\ ... \\ x_n \end{pmatrix} = \begin{pmatrix} z_1 \\ z_2 \\ z_3 \\ z_4 \\ ... \\ z_n \end{pmatrix} $


Это можно решать методом подстановки. Элемент $x_n$ находится как $z_n / r_{nn}$, предыдущий элемент $x_{n-1}$ находится как $(z_{n-1} - r_{n-1,n}x_n) / r_{n-1,n-1}$ и так далее.

Здесь стоит отметить, что сложность получившегося алгоритма за счет использования QR разложения равна $O(2mn^2)$. При этом, несмотря на то, что операция умножения матриц хорошо распараллеливается, написать эффективную распределенную версию этого алгоритма не представляется возможным.

Градиентный спуск


Говоря о минимизации некоторой функции, всегда стоит вспоминать метод (стохастического) градиентного спуска. Это простой и эффективный метод минимизации, основанный на итеративном вычислении градиента функции в точке и последующем её смещении в сторону, противоположную градиенту. Каждый такой шаг приближает решение к минимуму. Градиент при этом выглядит все так же:

$\nabla f(x) = \sum_{i \in [1, m]}2a_i(a_ix - b_i)$



Ещё этот метод хорошо распараллеливается и распределяется за счет линейных свойств оператора градиента. Заметим, что в приведенной выше формуле под знаком суммы находятся независимые слагаемые. Другими словами, мы можем посчитать градиент независимо для всех индексов $i$ с первого до $k$, параллельно с этим посчитать градиент для индексов с $k+1$ до $m$. Затем сложить получившиеся градиенты. Результатом сложения будет таким же, как если бы мы посчитали сразу градиент для индексов с первого до $m$. Таким образом, если данные распределены между несколькими частями данных, градиент может быть вычислен независимо на каждой части, а затем результаты этих вычислений могут быть просуммированы для получения окончательного результата:

$\nabla f(x) = \sum_{i \in P_1}2a_i(a_ix - b_i) + \sum_{i \in P_2}2a_i(a_ix - b_i) + ... + \sum_{i \in P_k}2a_i(a_ix - b_i)$



С точки зрения реализации, это укладывается в парадигму MapReduce. На каждом шаге градиентного спуска на каждый узел данных отправляется задание на вычисление градиента, затем вычисленные градиенты собираются вместе, и результат их суммирования используется для улучшения результата.

Несмотря на простоту реализации и возможность выполнения в парадигме MapReduce градиентный спуск обладает и своими недостатками. В частности, количество шагов, необходимое для достижения сходимости, существенно больше в сравнении с другими более специализированными методами.

LSQR


LSQR — еще один метод решения поставленной задачи, который подходит как для восстановления линейной регрессии, так и для решения систем линейных уравнений. Его главная особенность заключается в том, что он совмещает в себе преимущества матричных методов и итеративного подхода. Реализации этого метода можно найти как в библиотеки SciPy, так и в MATLAB. Описание данного метода приводиться здесь не будет (его можно найти в статье LSQR: An algorithm for sparse linear equations and sparse least squares). Вместо этого будет продемонстрирован подход, позволяющий адаптировать LSQR к выполнению в распределенной среде.

В основе метода LSQR лежит процедура бидиагонализации. Это итеративная процедура, каждая итерация которой состоит из следующих шагов:
image

Но если исходить из того, что матрица $A$ горизонтально партиционирована, то каждую итерацию можно представить в виде двух шагов MapReduce. Таким образом удается минимизировать пересылками данных в ходе каждой из итераций (только вектора длиной равной количеству неизвестных):

image

Именно этот подход используется при реализации линейной регрессии в Apache Ignite ML.

Заключение


Существует много алгоритмов восстановления линейной регрессии, но не все из них могут применяться в любых условиях. Так QR разложение отлично подходит для точного решения на небольших массивах данных. Градиентный спуск просто реализуется и позволяет быстро найти приближенное решение. А LSQR сочетает в себе лучшие свойства предыдущих двух алгоритмов, так как он может быть распределен, быстрее сходится в сравнении с градиентным спуском, а так же позволяет раннюю остановку алгоритма в отличие от QR-разложения для поиска приближенного решения.

Комментарии (10)


  1. ooprizrakoo
    09.09.2019 12:29

    как можно этого не увидеть?
    image


  1. mikeus
    09.09.2019 12:50

    Кстати, это называется методом наименьших квадратов. Зачастую все приведенные выше рассуждения опускаются и просто используется этот метод.
    МНК сам по себе есть просто самостоятельный метод аппроксимации. В данном случае к нему все сводится только из-за вида показателя экспоненты в формуле нормального распределения в связи с упоминанием про метод максимального правдоподобия.


    1. dmitrievanthony Автор
      09.09.2019 20:08

      Здесь важно понимать, что применяя метод наименьших квадратов мы предполагаем что шум имеет нормальное распределение. Если это не так, то нужно использовать другой подход.


      1. mikeus
        09.09.2019 21:38

        Я как раз и хотел уточнить, что связь: предположение о нормальном распределении шума для метода максимального правдоподобия ==> МНК — не более чем математическое совпадение. МНК — просто метод аппроксимации, и не обязательно линейной. Обратной глубинной связи от МНК к чему либо относительно шумов и прочего нет ни какой. Если так хочется использовать какие-то предположения о распределении шумов, то этого и надо плясать и соответственно как основную идею выносить в заголовок.


        1. AC130
          10.09.2019 07:45

          Конечно это метод аппроксимации. Однако когда шумы распределены нормально, этот метод аппроксимации даёт не просто какую-то оценку, а оценку ML. Использование МНК является следствием использования оценки ML.


          1. mikeus
            10.09.2019 14:39

            x


  1. Costic
    09.09.2019 19:25

    Если бы вы картинки добавили, то было бы шикарно!
    image
    Но я не понял, где же на практике у вас применяются эти методы и для каких задач, каких объёмов данных?


    1. dmitrievanthony Автор
      09.09.2019 20:06

      Картинка правда хорошая, учту. На практике все это реализовывалось для Apache Ignite, а примеры можно посмотреть здесь.


  1. frobeniusfg
    09.09.2019 22:03

    Кажется, в ряде формул в разделе «Метод максимального правдоподобия» пропущен индекс i возле a и b, хотя по нему берется произведение.


    1. dmitrievanthony Автор
      10.09.2019 09:16

      Спасибо, поправил.