1. Введение

Генеральная совокупность - множество всех объектов, относительно которых предполагается делать выводы при изучении конкретной задачи.

Выборка - часть генеральной совокупности, которая охватывается экспериментом.

Репрезентативная выборка - выборка, в которой все основные признаки генеральной совокупности, из которой извлечена данная выборка, представлены приблизительно в той же пропорции или с той же частотой, с которой данный признак выступает в этой генеральной совокупности.

Унимодальное распределение - распределение, имеющее только одну моду (пример: нормальное распределение)

Способы формирования репрезентативной выборки:

  • Простая случайная выборка (simple random sample)

  • Стратифицированная выборка (stratified sample)

  • Групповая выборка (cluster sample)

Типы переменных:

  • Количественные

    • непрерывные (рост в мм)

    • дискретные (количество публикаций у учёного)

  • Номинативные (резус-фактор)

  • Ранговые (успеваемость студентов)

Гистограмма частот:

Позволяет сделать первое впечатление о форме распределения некоторого количественного признака.

Описательные статистики:

Меры центральной тенденции (узкий диапазон, высокие значения признака):

  • Мода (mode) - значение во множестве наблюдений, которое встречается наиболее часто.

  • Медиана (median) - значение признака, которое делит упорядоченное множество пополам.

  • Среднее значение (mean, среднее арифметическое) - сумма всех значений измеренного признака, делённая на количество измеренных значений.

    (\bar{X} используется для среднего значения из выборки, а для генеральной совокупности латинская буква \mu)

    Свойства среднего:

    • M_{x + c} = M_x + c

      Если к каждому значению выборки прибавить определённое число, то и среднее значение увеличится на это число.

    • M_{x * c} = M_x * c

      Если к каждому значению выборки прибавить определённое число, то и среднее значение увеличится на это число.

    • \sum(x_i-M_x) = 0

      Если для каждого значения выборки, рассчитать такой показатель как его отклонение от среднего арифметического, то сумма этих отклонений будет равняться нулю.

Меры изменчивости (широкий диапазон, вариативность признака):

  • Размах (range) - разность максимального и минимального значения.

    R = X_{max} - X_{min}

    При добавлении сильно отличающегося значения данные меняются сильно и могут быть некорректные.

  • Дисперсия (variance) - средний квадрат отклонений индивидуальных значений признака от их средней величины.

    • Дисперсия генеральной совокупности:

      D = \frac{\sum(x_i-\bar{X})^2}{n}

      \sqrt{D} = \sigma(среднеквадратическое отклонение генеральной совокупности)

    • Дисперсия выборки:

      D = \frac{\sum(x_i-\bar{X})^2}{n - 1}

      \sqrt{D} = sd(среднеквадратическое отклонение выборки)

    • Свойства дисперсии:

      D_{x+c} = D_x

      sd_{x+c}=sd_x

      D_{x*c}=D_x*c^2

      sd_{x*c}=sd_x*|c|

Квартили распределения и график box-plot

Квартили - три точки (значения признака), которые делят упорядоченное множество данных на четыре равные части.

Box-plot - такой вид диаграммы в удобной форме показывает медиану (или, если нужно, среднее), нижний и верхний квартили, минимальное и максимальное значение выборки и выбросы.

Нормальное распределение

  • Унимодально

  • Симметрично

  • Отклонения наблюдений от среднего подчиняются определённому вероятностному закону.

Стандартизация

Стандартизация или z-преобразование - преобразование полученных данных в стандартную Z-шкалу (Z-scores) со средним M_z=0 и D_z=1


Z_i=\frac{x_i-\bar{X}}{\sigma X}

\bar{X} - c = \bar{X} - \bar{X} = 0


\frac{1}{\sigma X}


 D_x*(\frac{1}{\sigma X})^2=D_x*\frac{1}{D_x}=1

Правило "двух" и "трёх" сигм

  • M_x \pm \sigma \approx 68\%

  • M_x \pm 3\sigma \approx 100\%

Центральная предельная теорема

Центральная предельная теорема - класс теорем в теории вероятностей, утверждающих, что сумма большого количества независимых случайных величин имеет распределение близкое к нормальному. Так как многие случайные величины в приложениях являются суммами нескольких случайных факторов, центральные предельные теоремы обосновывают популярность нормального распределения.

Есть признак, распределенный КАК УГОДНО* с некоторым средним и некоторым стандартным отклонением. Тогда, если выбирать из этой совокупности выборки объема n, то их средние тоже будут распределены нормально со средним равным среднему признака в ГС и стандартным отклонением SE.

Стандартная ошибка среднего - теоретическое стандартное отклонение всех средних выборки размера , извлекаемое из совокупности.

SE=\frac{\sigma}{\sqrt{n}}

SE = \frac{sd}{\sqrt{n}}, n>30

Доверительные интервалы для среднего

Доверительный интервал является показателем точности измерений. Это также показатель того, насколько стабильна полученная величина, то есть насколько близкую величину (к первоначальной величине) вы получите при повторении измерений (эксперимента).

Идея статистического вывода

P-значение (P-value) - величина, используемая при тестировании статистических гипотез. Фактически это вероятность ошибки при отклонении нулевой гипотезы (ошибки первого рода).

2. Сравнение средних

T-распределение

Если число наблюдений невелико и \sigma неизвестно (почти всегда), используется распределение Стьюдента (t-distribution).

Унимодально и симметрично, но: наблюдения с большей вероятностью попадают за пределы \pm2\sigma от M

"Форма" распределения определяется числом степеней свободы (df=n-1).

С увеличением числа df распределение стремится к нормальному.

t=\frac{\bar{X}-\mu}{\frac{sd}{\sqrt{n}}}

t-распределение используется не потому что у нас маленькие выборки, а потому что мы не знаем стандартное отклонение в генеральной совокупности.

Сравнение двух средних; t-критерий Стьюдента

Критерий, который позволяет сравнивать средние значения двух выборок между собой, называется t-критерий Стьюдента.

Условия для корректности использования t-критерия Стьюдента:

  1. Нормальное распределение

  2. Количественные данные

  3. Две независимые группы

Формула стандартной ошибки среднего:

se = \sqrt{\frac{sd_1^2}{n_1} + \frac{sd_2^2}{n_2}}

Формула числа степеней свободы:

df=(n_1+n_2)-2

Формула t-критерия Стьюдента:

t=\frac{\bar{X}_1-\bar{X}_2}{\sqrt{\frac{sd_1^2}{n_1}+\frac{sd_2^2}{n_2}}}

Переход к p-критерию:

p > 0.05 / p<0.05

Проверка распределения на нормальность, QQ-Plot

Однофакторный дисперсионный анализ

Часто в исследованиях необходимо сравнить несколько групп между собой. В таком случае применятся однофакторный дисперсионный анализ.

Незвисимая переменная - номинативная перменная с нескольким градациями, разделяющая наблюдения на группы.

Зависимая перемнная - количественная переменная, по степени выраженности которой сравниваются группы.

1

2

3

3

5

7

1

3

6

2

4

5

Группы:

  • 3,1,2

  • 5,3,4

  • 7,6,5

Нулевая гипотеза:

H_0: M_1=M_2=M_3

Альтернативная гипотеза:

H_0: M_1\neq M_2\neq M_3

Среднее значение всех наблюдений:

\bar{X}=\frac{3+1+2+5+4+3+7+6+5}{9} = \frac{36}{9} = 4

Общая сумма квадратов (Total sum of sqares):

SST=(3-4)^2+(1-4)^2+(2-4)^2+(5-4)^2+(4-4)^2+(3-4)^2+(7-4)^2+(6-4)^2+(5-4)^2=30

Показатель, который характеризует насколько высока изменчивость данных, без учёта разделения их на группы.

Число степеней свободы:

df=N-1

  • SSB - Межгрупповая сумма квадратов (Sum of sqares between groups)

  • SSW- Внутригрупповая сумма квадратов (Sum of sqares within groups)

\bar{X}_1 = 2; \bar{X}_2 = 4; \bar{X}_3 = 6

SSW=(3-2)^2+(1-2)^2+(2-2)^2+(5-4)^2+(3-4)^2+(4-4)^2+(7-6)^2+(6-6)^2+(5-6)^2=2+2+2=6

df=N-3=9-3=6

SSB=3*(2-4)^2+3(4-4)^2+3(6-4)^2=24

df=m-1=3-1=2

F-значение (основной статистический показатель дисперсионного анализа):

F=\frac{\frac{SSВ}{m-1}}{\frac{SSW}{N-m}}=\frac{\frac{24}{2}}{\frac{6}{6}}=12

Межгрупповой средний квадрат - усредненное значение межгрупповой суммы квадратов.

При делении значения межгрупповой суммы квадратов на число степеней свободы, полученный показатель усредняется.

MS_{bg}=\frac{SSB}{df_bg}; ds_bg=m-1

Внутригрупповой средний квадрат - отношение внутригрупповой суммы квадратов к числу степеней свободы.

MS_{wg}=\frac{SSW}{df_wg}; ds_wg=N-m

Поэтому формула F-значения часто записывается:

F=\frac{MS_bg}{MS_wg}

Множественные сравнения в ANOVA

Проблема множественных сравнений:

Чем больше статистических гипотез проверяется на одних и тех же данных, тем вероятнее ошибка первого рода - заключение о наличии различий между группами, тогда как на самом деле верна нулевая гипотеза об отсутствии различий.

Поправка Бонферрони

Самый простой (и консервативный) метод: P-значения умножаются на число выполненных сравнений.

Критерий Тьюки

Критерий Тьюки используется для проверки нулевой гипотезы H_0:\mu_B=\mu_A против альтернативной гипотезы H_0:\mu_B\neq\mu_A, где индексы A и B обозначают любые две сравниваемые группы.

Указанные сравнения выполняются при помощи критерия Тьюки, который представляет собой модифицированный критерий Стьюдента:

q=\frac{\bar{x}_B-\bar{x}_A}{SE}

Отличие от критерия Стьюдента заключается в том, как рассчитывается стандартная ошибка $SE$:

SE=\sqrt{\frac{MS_w}{n}}

где MS_w - рассчитываемая в ходе дисперсионного анализа внутригрупповая дисперсия.

Многофакторный ANOVA

При применении двухфакторного дисперсионного анализа исследователь проверяет влияние двух независимых переменных (факторов) на зависимую переменную. Может быть изучен также эффект взаимодействия двух переменных.

Исследуемые группы называют эффектами обработки. Схема двухфакторного дисперсионного анализа имеет несколько нулевых гипотез: одна для каждой независимой переменной и одна для взаимодействия.

Условия применения двухмерного дисперсионного анализа:

  1. Генеральные совокупности, из которых извлечены выборки, должны быть нормально распределены.

  2. Выборки должны быть независимыми.

  3. Дисперсии генеральных совокупностей, из которых извлекались выборки, должны быть равными.

  4. Группы должны иметь одинаковый объем выборки.

АБ тесты и статистика

АБ тестирование - это проведение экспериментов при помощи статистики, пожалуй, самый яркий пример того, зачем статистика нужна в реальной жизни. Этот метод маркетингового исследования заключается в том, что контрольная группа элементов сравнивается с набором тестовых групп, где один или несколько показателей изменены для того, чтобы выяснить, какие из изменений улучшают целевой показатель. Например, мы можем поменять цвет кнопки для регистрации с красного на синий и сравнить, насколько это будет эффективно.

3. Корреляция и регрессия

Понятие корреляции

Корреляция - статистическая взаимосвязь двух или более случайных величин. При этом изменения значений одной или нескольких из этих величин сопутствуют систематическому изменению значений другой или других величин.

Коэффициент корреляции – это статистическая мера, которая вычисляет силу связи между относительными движениями двух переменных.

Принимает значения [-1, 1]

r_{xy}=\frac{\sum{(x_i-\bar{X})(y_i-\bar{Y})}}{\sqrt{\sum{(x_i-\bar{X})}^2\sum{(y_i-\bar{Y})}}^2}

r_{xy} - показатель силы и направления взаимосвязи двух количественных переменных.

Знак коэффициента корреляции показывает направление взаимосвязи.

Коэффициент детерминации

R^2 - показывает, в какой степени дисперсия одной переменной обусловлена влиянием другой переменной.

Равен квадрату коэффициента корреляции.

Принимает значения [0, 1]

Условия применения коэффициента корреляции

Для применения коэффициента корреляции Пирсона, необходимо соблюдать следующие условия:

  1. Сравниваемые переменные должны быть получены в интервальной шкале или шкале отношений.

  2. Распределения переменных Xи Yдолжны быть близки к нормальному.

  3. Число варьирующих признаков в сравниваемых переменных Xи Yдолжно быть одинаковым.

Коэффициент корреляции Спирмена

Коэффициент ранговой корреляции Спирмена - это количественная оценка статистического изучения связи между явлениями, используемая в непараметрических методах.

r_s=1-\frac{6\sum_i{d_i^2}}{N(N^2-1)}

Регрессия с одной независимой переменной

Уравнение прямой:

y=b_0+b_1x

b_0 - (intersept) отвечает за то, где прямая пересекает ось y.

b_1 - (slope) отвечает за направление и угол наклона, образованный с осью x.

Метод наименьших квадратов

МНК - метод нахождения оптимальных параметров линейной регрессии, таких, что сумма квадратов остатков была минимальна.

Формула нахождения остатка:

e=y-\hat{y}

e - остаток

y - реальное значение

\hat{y} - значение, которое предсказывает регрессионная прямая

Сумма квадратов всех остатков:

\sum{e_i^2}

Параметры линейной регрессии:

b_1=\frac{sd_y}{sd_x}*r_{xy}

b_0=\bar{Y}-b_1*\bar{X}

Гипотеза о значимости взаимосвязи и коэффициент детерминации

Коэффициенты линейной регрессии

Коэффициенты регрессии (β) — это коэффициенты, которые рассчитываются в результате выполнения регрессионного анализа. Вычисляются величины для каждой независимой переменной, которые представляют силу и тип взаимосвязи независимой переменной по отношению к зависимой.

Коэффициент детерминации

R^2 - доля дисперсии зависимой переменной (Y), объясняем регрессионной моделью.

R^2=1-\frac{SS_{res}}{SS_{total}}

SS_{res} - сумма квадратов остатков

SS_{total} - сумма квадратов общая

Условия применения линейной регрессии с одним предиктором

  • Линейная взаимосвязь Xи Y

  • Нормальное распределение остатков

  • Гомоскедастичность - постоянная изменчивость остатков на всех уровнях независимой переменной

Регрессионный анализ с несколькими независимыми переменными

Множественная регрессия (Multiple Regression)

Множественная регрессия позволяет исследовать влияние сразу нескольких независимых переменных на одну зависимую.

Требования к данным

  • линейная зависимость переменных

  • нормальное распределение остатков

  • гомоскедастичность данных

  • проверка на мультиколлинеарность

  • нормальное распределение переменных (желательно)

Комментарии (0)