В настоящее время для построения скоринговой модели стандартом “де факто” в финансовой отрасли является использование функций логистической регрессии (logit-функций). Суть метода сводится к нахождению такой линейной комбинации начальных данных (предикторов), которая в результате logit-преобразования будет максимально правдоподобно осуществлять предсказания.

Практический недостаток метода — в необходимости длительной подготовки данных для построения модели (около недели работы специалиста). В реальных условиях работы микрофинансовой компании набор данных о заемщиках постоянно меняется, подключаются и отключаются различные дата-провайдеры, сменяются поколения займов — этап подготовки становится узким местом.

Другой недостаток logit-функций связан с их линейностью — влияние каждого отдельного предиктора на конечный результат равномерно на всем множестве значений предиктора.
Модели на базе нейронных сетей лишены этих недостатков, но редко применяются в отрасли — нет надежных методов оценки переобучения, большое влияние “шумящих” значений в исходных данных.

Ниже мы покажем, как с помощью применения различных методов оптимизации модели на базе нейронных сетей позволяют получить лучший результат предсказаний по сравнению с моделями на базе logit-функций.


1. Постановка задачи упрощения структуры математической модели и ее решение с использованием методов негладкой регуляризации (на примере линейной модели)


1.1 Постановка задачи построения модели


Большинство прикладных исследований имеют цель установления закономерной взаимосвязи некоторой измеряемой величины и нескольких факторов

$$display$$E(y/x)=f(x)=f(x,w),\ \mathit{w\theta }\in W\subset R^m,\ x\in \Omega \subset R^n,\ \ \ \ (1)$$display$$


где $inline$E(y/x)$inline$ — среднее значение наблюдаемой величины $inline$y$inline$, зависящей от переменных $inline$x, W$inline$ и $inline$\Omega$inline$ — допустимые множества параметров $inline$w$inline$ и $inline$x$inline$. Восстановление зависимости производится на основании данных наблюдения

$$display$$D=\{\;(x^i,y_i)|x^i\in R^n,\;\;\;\;y_i\in R^1;\ i=1,...,N\}.\ \ \ \ (2)$$display$$


Оценки параметров $inline$w$inline$ можно получить, например, методом наименьших квадратов

$$display$$w=\text{arg}\underset{\theta \in \Theta }{\text{min}}\;\;E(w,D),\ \ E(w,D)=\overset N{\underset{i=1}{\sum}}[y_i-f(x^i,w)]^2.\ \ \ \ (3)$$display$$


1.2. Линейная модель


В задаче построения линейной модели требуется по данным D построить модель следующего вида (оценить ее неизвестные параметры $inline$w$inline$)

$$display$$f(x,w)=w_0+\sum _{i=1}^mw_ix_i,\ \ \ \ (4)$$display$$


где $inline$x_{j(i)}$inline$ — компоненты вектора, $inline$x\in R^n$, $w=([w_0,w_i,i=1,...,m])$inline$ — набор неизвестных параметров, которые необходимо оценить методом наименьших квадратов (3), $inline$m$inline$ — число информативных компонент вектора $inline$x\in R^n$inline$, участвующих в модели, n-размерность вектора $inline$x$inline$.

1.3. Logit-модели


Logit-модель имеет вид

$$display$$f(x,w)=\;\varphi (s),\ \ \ \ (5)$$display$$

где

$$display$$s(x,w)=w_0+\sum _{i=1}^mw_ix_i,\ \ \ \ (6)$$display$$

а функция активации может быть задана одним из следующих видов

$$display$$\varphi (s)=\frac{s}{1+|s|},\ \ \varphi '(s)=\frac{1}{(1+|s|)^2};\ \ \ (7)$$display$$

$$display$$\varphi (s)=\frac 1{1+\text{exp}(-s)},\ \ \varphi '(s)=\varphi (s)(1-\varphi (s)),\ \ \ \ (8)$$display$$

$$display$$\varphi (s)=s,\ \ \ \ \varphi '(s)=1.\ \ \ \ (9)$$display$$


Последняя из функций линейная. Наряду с (7)-(8), может применяться для сравнения качества аппроксимации с (7)-(8).

1.4. Двухслойная сигмоидальная нейронная сеть (с одним скрытым слоем)


В задаче аппроксимации сетью прямого распространения требуется по данным $inline$D$inline$ обучить двухслойную сигмоидальную нейронную сеть (НС) следующего вида (оценить ее неизвестные параметры $inline$w$inline$)

$$display$$f(x,w)=w_0^{(2)}+\sum _{i=1}^mw_i^{(2)}\;\varphi \;(\sum _{j=1}^nx_j\;w_{{\text{ij}}}^{(1)}\;\;+w_{\mathit{i0}}^{(1)}),\ \ \ \ (10)$$display$$


где $inline$x_j\;$inline$ — компоненты вектора $inline$x\in R^n$inline$, $inline$w=([w_0^{(2)},w_i^{(2)},i=1,...,m];$inline$
$inline$\;\;\;[w_{\mathit{i0}}^{(1)},(w_{{\text{ij}}}^{(1)},\;\;j=1,...,n)]\;,\;i=1,...,m)$inline$ — набор неизвестных параметров, которые необходимо оценить методом наименьших квадратов (3), $inline$\varphi (s)$inline$ — функция активации нейрона, $inline$m$inline$ — число нейронов, $inline$n$inline$ — размерность вектора $inline$х$inline$.

1.5. Функции активации сигмоидальной нейронной сети


Приведем функции активации сигмоидального вида и их производные, которые мы будем использовать:

$$display$$\varphi (s)=\frac{s}{1+|s|},\ \ \ \ \varphi'(s)=\frac {1}{(1+|s|)^2};\ \ \ \ (11)$$display$$


$$display$$\varphi (s)=\frac{1}{1+\text{exp}(-s)},\ \ \ \ \varphi'(s)=\varphi (s)(1-\varphi (s)).\ \ \ \ (12)$$display$$


$$display$$\varphi (s)=s,\ \ \ \ \varphi'(s)=1.\ \ \ \ (13)$$display$$



1.6. Предварительная обработка входных данных


Основная цель предобработки данных заключается в максимизации энтропии входных данных. Когда все значения переменной совпадают то она не несет в себе информации. И, напротив если значения переменной равномерно распределены на заданном интервале, то ее энтропия максимальна.

Для преобразования компонент переменных с целью повышения степени равномерности компонент переменной используют формулу logit-модели

$$display$$x_i^+=0.5-\frac{1}{1+\text{exp}(-(x_i-\bar x_i)/\sigma _i)},\;\;\;\;\;\;\;\;\;\sigma _i=[(x_i-\bar x_i)^2/N]^{0.5}\ \ \ \ (14)$$display$$



1.7. Подавление избыточных переменных и сглаживание


Для подавления избыточных переменных предварительное обучение следует производить посредством минимизации по $inline$w$inline$ квадратичной ошибки и негладкого сглаживающего функционала

$$display$$E_{\Omega }\left(\alpha ,w,D\right)=\underset{x,y\in D}{\sum }\left(y-f(x,w)\right)^2+\alpha \Omega (w),\ \ \ \ (15)$$display$$


$$display$$\Omega \left(w\right)=\underset{i\in {\text{Iw}}}{\sum }|w_i|^{\gamma },\ \ 0<\gamma <1,\ \ \ \ (16)$$display$$


где $inline$\alpha $inline$ – параметр регуляризации, $inline${\text{Iw}}$inline$ — множество номеров переменных массива $inline$w$inline$ – по которым проводится регуляризация. Функционал $inline$\Omega \left(w\right)$inline$ предназначен для подавления избыточных переменных модели $inline$f(x,w)$inline$. Поэтому в решении будет присутствовать множество компонент, близких к нулю, которые необходимо исключать, используя специальные алгоритмы.

2. Сглаживающие функционалы для сглаживания и подавления избыточных переменных


2.1. Негладкая регуляризация


Производные функционала, подобного (8)

$$display$$\Omega \left(w\right)=\overset n{\underset{i=1}{\sum }}|w_i|^{\gamma },\ \ \ \ 0<\gamma <1\ \ \ \ (17)$$display$$


имеют следующий вид

$$display$$\frac{\partial \Omega \left(w\right)}{\partial w_i}=\frac{\beta \;{\text{sign}}(w_i)}{|w_i|^{1-\gamma}},\ \ i=1,...,n,\ \ 0<\gamma <1.\ \ \ \ (18)$$display$$


При $inline$w_i\rightarrow 0$inline$ они будут сколь угодно большими. Это означает что углы звезд – поверхностей уровня вырождаются в иглы, что замедляет скорость сходимости методов минимизации и приводит к аварийным преждевременным остановам.
Линии уровня функционала (10) (линии уровня звездоподобного вида) изображены на рисунке 1.

Рисунок 1. Линии уровня функционалов
На рис. 1 приведено взаимодействие двух функционалов (основного и сглаживающего) и приведены направления их градиентов и результирующего градиента.

2.2. Частный случай негладкой регуляризация (бритва Оккама)


Рассмотрим (8) при условии $inline$\gamma =1$inline$

$$display$$\Omega \left(w\right)=\overset n{\underset{i=1}{\sum }}|w_i|.\ \ \ \ (19)$$display$$


Производные (10) имеют следующий вид

$$display$$\frac{\partial \Omega \left(w\right)}{\partial w_i}={\text{sign}}(w_i),\ i=1,...,n.\ \ \ \ (20)$$display$$


Поверхности уровня имеют вид прямоугольников, расположенных симметрично относительно нуля и повернутых на 45 градусов. Функция (10) негладкая.

2.3. Негладкая регуляризация с ограниченными производными


В следующем функционале мы избавимся от наличия углов, вырождающихся в иглы

$$display$$\Omega \left(w\right)=\overset n{\underset{i=1}{\sum }}(|w_i|+\varepsilon )^{\gamma },\ \ \ \ \varepsilon >0,\ \ \ \ 0<\gamma <1\ \ \ \ (21)$$display$$

$$display$$\frac{\partial \Omega \left(w\right)}{\partial w_i}=\frac{\beta \;{\text{sign}}(w_i)}{(|w_i|+\varepsilon )^{1-\gamma }},\ \ i=1,...,n,\ \ 0<\gamma <1.\ \ \ \ (22)$$display$$


Недостатком (10) является неоднородная чувствительность к параметру $inline$\varepsilon $inline$ при вариациях порядков оцениваемых параметров $inline$w$inline$ для различных нейронных сетей.

2.4. Негладкая однородная регуляризация с ограниченными производными


В следующем функционале мы избавимся от неоднородности по параметрам $inline$w$inline$

$$display$$\Omega \left(w\right)=\overset n{\underset{i=1}{\sum }}(|w_i|+\varepsilon \overset n{\underset{i=1}{\sum}}|w_i|)^{\gamma }=\overset n{\underset{i=1}{\sum }}v_i^{\gamma }=\overset n{\underset{i=1}{\sum }}f_i,\ \varepsilon >0,\ \varepsilon \approx 10^{-4},\ 0<\gamma <1,\ \ \ \ (23)$$display$$

$$display$$\frac{\partial \Omega \left(w\right)}{\partial w_k}=\frac{\beta \ sign(w_k)}{(|w_k|+\varepsilon \overset n{\underset{i=1}{\sum }}|w_k|)^{1-\gamma }}+\overset n{\underset{i=1}{\sum }}\frac{\varepsilon \beta\ sign(w_k)}{(|w_i|+\varepsilon \overset n{\underset{i=1}{\sum }}|w_i|)^{1-\gamma}}=\\=\gamma\ sign(w_k)\left[\frac{f_k}{v_k}+\varepsilon \overset n{\underset{i=1}{\sum}}\frac{f_i}{v_i}\right]=\gamma \;{sign}(w_k)\left[\frac 1{v_k^{1-\gamma}}+\varepsilon \overset n{\underset{i=1}{\sum }}\frac{1_i}{v_i^{1-\gamma}}\right],\ k=1,...,n. \ \ \ \ (24)$$display$$


Преобразуем (12)

$$display$$\Omega \left(w\right)=\overset n{\underset{i=1}{\sum }}(|w_i|+\varepsilon \overset n{\underset{i=1}{\sum }}|w_i|)^{\gamma }=\left(\overset n{\underset{i=1}{\sum }}|w_i|\right)^{\gamma }\overset n{\underset{i=1}{\sum }}\left(\frac{|w_i|}{\overset n{\underset{i=1}{\sum }}|w_i|}+\varepsilon \right)^{\gamma },\ 0<\gamma<1\ \ \ \ (25)$$display$$


Введем нормированные переменные

$$display$$z_i=\frac{|w_i|}{\overset n{\underset{i=1}{\sum }}|w_i|},\ \ z_i\in [0,\;\; 1],\ \ \overset n{\underset{i=1}{\sum}}|z_i|=1.\ \ \ \ (26)$$display$$


Тогда (16) примет вид

$$display$$\Omega \left(w\right)=\left(\overset n{\underset{i=1}{\sum }}|w_i|\right)^{\gamma }\overset n{\underset{i=1}{\sum }}\left(\frac{|w_i|}{\overset n{\underset{i=1}{\sum }}|w_i|}+\varepsilon \right)^{\gamma }=\left(\overset n{\underset{i=1}{\sum }}|w_i|\right)^{\gamma }\overset n{\underset{i=1}{\sum }}(z_i+\varepsilon )^{\gamma },\ \ 0<\gamma <1,\ \ (27)$$display$$


Обозначим структуру функции. Здесь первый множитель $inline$\left(\overset n{\underset{i=1}{\sum }}|w_i|\right)^{\gamma }$inline$ является однородной функцией степени $inline$\gamma $inline$ и отображает общий рост функции. Второй сомножитель в (16) является
однородной функцией нулевой степени и определяет поведение функции в зависимости от структуры пропорций между переменными.

Обозначим свойства функционала (16), которые определяют его эффективность.
  1. Поверхности уровня образуют подобные фигуры относительно начала координат. Последнее означает независимость регуляризации от масштаба переменных.
  2. Множитель общего роста функции является вогнутой функцией, что определяет наличие экстремумов на координатных осях и следовательно определяет свойства возможности удаления переменных.
  3. Степень вогнутости задается параметром $inline$\beta$inline$ который может быть выбран оптимальным образом на основе предварительного вычислительного эксперимента и далее при расчетах на данного типа сетях не меняется
  4. Структура угловых точек определяется параметром $inline$\varepsilon$inline$ который может быть выбран оптимальным образом на основе предварительного вычислительного эксперимента и далее при расчетах на данного типа сетях не меняется

Следующие ниже функции мы рассмотрим на предмет обладания ими обозначенных нами свойств, необходимых для устранения избыточных переменных.

2.5. Квадратичная регуляризация (регуляризация Тихонова)


Производные квадратичной функции

$$display$$\Omega \left(w\right)=\overset n{\underset{i=1}{\sum }}w_i^2\ \ \ \ (28)$$display$$


имеют следующий вид

$$display$$\frac{\partial \Omega \left(w\right)}{\partial w_i}=2w_i, i=1,...,n.\ \ \ \ (29)$$display$$


Не позволяет решить задачу устранения избыточных переменных, поскольку она не обладает свойством 2.

3. Результаты численного исследования


На тестовых и реальных данных исследовались logit-модели и сигмоидальные нейронные сети с негладкой однородной регуляризацией и квадратичной регуляризацией Тихонова.

3.1. Исследование на реальных данных различных моделей


Восстановление различных зависимостей $inline$f(x,w)$inline$ производилось на основании данных наблюдения

$$display$$D=\{\;(x^i,y_i)|x^i\in R^n,\;\;\;\;y_i=\{0,1\};\;\;\;\;i=1,...,N\}\ \ \ \ (1)$$display$$


где в качестве величин $inline$y_i$inline$ использовались характеристики дефолта $inline$(y_i=1)$inline$ или отсутствие дефолта $inline$(y_i=0)$inline$. Оценки неизвестных параметров модели $inline$w$inline$ производились методом наименьших квадратов

$$display$$w=\text{arg}\ \underset{\theta \in \Theta }{\text{min}}\;\;E(w,D),\ \ \ \ E(w,D)=\overset N{\underset{i=1}{\sum}}[y_i-f(x^i,w)]^2.\ \ \ \ (2)$$display$$


Проводилась предварительная обработка входных данных. Основная цель предобработки данных заключается в максимизации энтропии входных данных. Когда все значения переменной совпадают то она не несет в себе информации. И, напротив, если значения переменной равномерно распределены на заданном интервале, то ее энтропия максимальна.
Для преобразования компонент переменных с целью повышения степени равномерности компонент переменной используют формулу logit-модели

$$display$$x_i^+=0.5-\frac 1{1+\text{exp}(-(x_i-\bar x_i)/\sigma _i)},\;\;\;\;\;\;\;\;\;\sigma _i=[(x_i-\bar x_i)^2/N]^{0.5}.\ \ \ \ (3)$$display$$


Качество моделей оценивалось на основе характеристики AUC, определяющая площадь под
ROC-кривой.
Кривая ошибок или ROC-кривая – графичекая характеристика качества бинарного классификатора, зависимость доли верных положительных классификаций от доли ложных положительных классификаций при варьировании порога решающего правила.
Преимуществом ROC-кривой является её инвариантность относительно отношения цены ошибки I и II рода.
Площадь под ROC-кривой AUC (Area Under Curve) является агрегированной характеристикой качества классификации, не зависящей от соотношения цен ошибок. Чем больше значение AUC, тем «лучше» модель классификации. Данный показатель часто используется для сравнительного анализа нескольких моделей классификации.

3.2. Исследование Logit-моделей с различными типами регуляризации


Logit-модель

$$display$$f(x,w)=\;\varphi (s),\ \ \ \ s(x,w)=w_0+\sum _{i=1}^mw_ix_i,\ \ \ \ (4)$$display$$


использовалась с тремя видами функция активации

$$display$$\varphi (s)=s,\ \ \ \ \varphi '(s)=1.\ \ \ \ (5)$$display$$


$$display$$\varphi (s)=\frac s{1+|s|},\ \ \ \ \varphi '(s)=\frac{1}{(1+|s|)^2};\ \ \ \ (6)$$display$$


$$display$$\varphi (s)=\frac{1}{1+\text{exp}(-s)},\ \ \ \ \varphi '(s)=\varphi (s)(1-\varphi (s)),\ \ \ \ (7)$$display$$


которые мы будем обозначать соответственно LIN, ABS и EXP. Коэффициенты модели находились посредством минимизации функции

$$display$$E_{\Omega }\left(\alpha ,w,D\right)=\underset{x,y\in D}{\sum }\left(y-f(x,w)\right)^2+\alpha \Omega (w)\ \ \ \ (8)$$display$$


В качестве $inline$\Omega (w)$inline$ использовалась квадратичная функция регуляризации Тихонова

$$display$$\Omega _2\left(w\right)=\overset n{\underset{i=1}{\sum }}w_i^2\ \ \ \ (9)$$display$$


и негладкая однородная функция при негладкой регуляризации

$$display$$\Omega _{\gamma }\left(w\right)=\overset n{\underset{i=1}{\sum }}(|w_i|+\varepsilon \overset n{\underset{i=1}{\sum}}|w_i|)^{\gamma },\ \ \varepsilon >0,\ \ \varepsilon \approx 10^{-6},\ \ \ \ 0<\gamma <1\ \ \ \ (10)$$display$$


В алгоритме регуляризации присутствовало 2 этапа. Выбиралось некоторое начальное значение $inline$\alpha _0$inline$, а на последующих итерациях $inline$\alpha _{k+1}=2\alpha _k$inline$ получалось удвоением $inline$\alpha _{k+1}=2\alpha _k$inline$. При таких значениях рассчитывалась модель и производилось удаление переменных с чрезмерно малыми коэффициентами. На каждой итерации также рассчитывалась модель с некоторым малым значением $inline$\alpha _{\text{min}}$inline$. Такой способ предполагает сглаживание и удаление переменных при больших параметрах регуляризации $inline$\alpha _k$inline$ и свободное построение модели при малых значениях. Модели при малых параметрах регуляризации могут оказаться полезными в предположении, что оставшиеся после удаления переменные являются значимыми для построения модели.
В следующей таблице приведены результаты расчетов модели, число переменных которой nx=254.

image

AUC_O – AUC на обучающей выборке
AUC_T — AUC на тестовой выборке

3.3. Выводы исследование на реальных данных Logit-моделей


Лучшие варианты моделей с квадратичной регуляризацией получены посредством сценария с предварительным удалением части коэффициентов модели при больших параметрах регуляризации с последующим расчётом параметров модели с малыми коэффициентами регуляризации. Такие сценарии требуют больших параметров регуляризации, что может привести к удалению значимых компонент модели.

Оптимальная модель при негладкой оптимизации получена при малых значениях параметров регуляризации, что позволяет нам сделать вывод о том, что здесь наблюдается одновременный эффект удаления слабых переменных и сглаживание по остальной части переменных.

Сравнение средних показателей AUC_O и AUC_T моделей говорит о получении более эффективными модели на основе негладкой оптимизации.

Средние результаты для Logit-моделей

image

3.4. Исследование нейросетевых моделей с различными типами регуляризации


Строились двухслойные сигмоидальные нейронные сети (с одним скрытым слоем). В задаче аппроксимации сетью прямого распространения требуется по данным D обучить двухслойную сигмоидальную нейронную сеть (НС) следующего вида (оценить ее неизвестные параметры $inline$w$inline$)

$$display$$f(x,w)=w_0^{(2)}+\sum _{i=1}^mw_i^{(2)}\;\varphi \;(\sum _{j=1}^nx_j\;w_{{\text{ij}}}^{(1)}\;\;+w_{\mathit{i0}}^{(1)}),\ \ \ \ (11)$$display$$


где $inline$x_j$inline$ — компоненты вектора $inline$x\in R^n$inline$, $inline$w=([w_0^{(2)},w_i^{(2)},i=1,...,m]; [w_{\mathit{i0}}^{(1)},(w_{{\text{ij}}}^{(1)},\;\;j=1,...,n)]\;,\;i=1,...,m)$inline$ — набор неизвестных параметров, которые необходимо оценить методом наименьших квадратов (3), $inline$\varphi (s)$inline$ — функция активации нейрона, $inline$m$inline$ — число нейронов, $inline$n$inline$ — размерность вектора $inline$х$inline$.
Нейросетевая модель-модель использовалась с двумя видами функции активации

$$display$$\varphi (s)=\frac {s}{1+|s|}, \ \varphi '(s)=\frac {1}{(1+|s|)^2};\ \ \ \ (12)$$display$$


$$display$$\varphi (s)=\frac {1}{1+\text{exp}(-s)},\ \ \ \ \varphi '(s)=\varphi (s)(1-\varphi (s))\ \ \ \ (13)$$display$$


которые мы будем обозначать соответственно LIN, ABS и EXP. Коэффициенты модели находились посредством минимизации функции

$$display$$E_{\Omega }\left(\alpha ,w,D\right)=\underset{x,y\in D}{\sum }\left(y-f(x,w)\right)^2+\alpha \Omega (w)\ \ \ \ (14)$$display$$


В качестве $inline$\Omega (w)$inline$ использовалась квадратичная функция регуляризации Тихонова

$$display$$\Omega _2\left(w\right)=\overset n{\underset{i=1}{\sum }}w_i^2\ \ \ \ (15)$$display$$


и негладкая однородная функция при негладкой регуляризации

$$display$$\Omega _{\gamma }\left(w\right)=\overset n{\underset{i=1}{\sum }}(|w_i|+\varepsilon \overset n{\underset{i=1}{\sum }}|w_i|)^{\gamma }, \varepsilon >0,\ \varepsilon \approx 10^{-6},\ \ 0<\gamma <1\ \ \ \ (16)$$display$$


В алгоритме регуляризации присутствовало 2 этапа. Выбиралось некоторое начальные значение $inline$\alpha _{00}$inline$, а на последующих итерациях $inline$\alpha _{k+1}=2\alpha _k$inline$ получалось удвоением $inline$\alpha _{k+1}=2\alpha _k$inline$. При таких значениях рассчитывалась модель и производилось удаление переменных с чрезмерно малыми коэффициентами. На каждой итерации также рассчитывалась модель с некоторым малым значением $inline$\alpha _{\text{min}}$inline$. Такой способ предполагает сглаживание и удаление переменных при больших параметрах регуляризации $inline$\alpha _k$inline$ и свободное построение модели при малых значениях. Модели при малых параметрах регуляризации могут оказаться полезными в предположении, что оставшиеся после удаления переменные являются значимыми для построения модели.

Результаты для нейросети без фиксации центров. В следующих таблицах приведены результаты расчетов моделей, число переменных которой $inline$nx$inline$= 254.

image

Результаты для нейросети с фиксацией центров.

image

AUC_O – AUC на обучающей выборке
AUC_T — AUC на тестовой выборке

3.5. Выводы исследования на реальных данных нейросетевых моделей


Лучшие варианты моделей с квадратичной регуляризацией получены посредством сценария с предварительным удалением части коэффициентов модели при больших параметрах регуляризации с последующим расчётом параметров модели с малыми коэффициентами регуляризации. Такие сценарии требуют больших параметров регуляризации, что может привести к удалению значимых компонент модели.

Оптимальная модель при негладкой оптимизации получена при малых значениях параметров регуляризации, что позволяет нам сделать вывод о том, что здесь наблюдается одновременный эффект удаления слабых переменных и сглаживание по остальной части переменных.

Сравнение средних показателей AUC_O и AUC_T моделей говорит о получении более эффективными модели на основе негладкой оптимизации.

Второй вывод заключается в том что предварительная фиксация рабочих областей нейронов положительно сказывается на получении более эффективной нейросетевой модели. Фиксация нейронов на первом этапе не позволяет уходить рабочим областям из области данных, тем самым оставляя рабочими все нейроны.

Средние результаты для нейросетей без фиксации центров.

image

Средние результаты для нейросетей с фиксацией центров.

image

AUC_O – AUC на обучающей выборке
AUC_T — AUC на тестовой выборке

Как показала наша практика, сигмоидальные нейронные сети с одним внутренним слоем могут успешно использоваться для прогноза дефолта заёмщика и показывают лучшие результаты, чем модели на базе функций логистической регрессии. Недостатки моделей на базе нейронных сетей успешно преодолеваются предварительной регуляризацией входных данных и выполнением обучения модели с фиксацией рабочих областей нейронов.

Комментарии (7)


  1. LbG0tHNk
    25.10.2017 19:35

    Это впервые я вижу такую кучу матана на такой простой задаче


    1. pythonchik
      25.10.2017 19:43

      Матан тут может и к месту. Но вот без формул и графиков (кои не отображаются) — абсолютно нечитаемо.


      1. Mikhail86 Автор
        25.10.2017 19:45

        попробуйте в Google Chrome открыть


        1. pythonchik
          25.10.2017 19:47

          Да, в Хроме действительно лучше.
          Старый добрый платформозависимый веб :)


    1. Mikhail86 Автор
      26.10.2017 14:07

      Доброго времени суток! Такое количество матана связанно прежде всего с тем, что в данной статье мы сравниваем разные методы и необходимо найти лучший. Так как это сделано для дальнейшего практического применения в финансовой сфере, то цена ошибки очень велика и подход должен быть соответствующий.


  1. Dzias
    25.10.2017 19:35

    Отличная статья!


  1. lionna
    26.10.2017 14:47

    круто!