
Давайте представим, что мы бросаем монету и смотрим, какой стороной она выпадает — орлом или решкой. Все, что мы знаем о монете, — это то, что результаты бросков независимы, и у нас нет способа на них повлиять. Есть ли у нас способ предсказать, какой стороной выпадет монета при следующем броске?
Результат броска — это случайная величина. Если обозначить «решку» числом 0, а «орел» числом 1, то мы можем описать распределение этой случайной величины как
Математическое ожидание и дисперсия этого распределения равны, соответственно:
Но что если мы имеем дело не с отдельным броском монеты, а с серией бросков? Известно распределение величины
где
Так как броски монеты — это независимые события, мы можем вычислить математическое ожидание и дисперсию биномиального распределения как суммы соответствующих параметров распределения Бернулли:
Предсказание следующего броска
На практике параметры биномиального распределения нам неизвестны. Вместо этого нам могут быть доступны результаты серии бросков этой монеты
Как же мы можем использовать эти данные для предсказания результатов следующего броска?
Метод максимизации правдоподобия
Классический подход к решению этой задачи — оценить параметры распределения по выборке. В нашем случае необходимо оценить один параметр биномиального распределения —
Поскольку броски монеты — независимые события, вероятность выборки
Для удобства максимизировать можно не саму вероятность выборки
Для нахождения максимума этой функции от
Таким образом, мы получили оценку параметра
Такое предсказание кажется разумным, однако, оно сталкивается с проблемами на небольших выборках. Что, если мы подкинули монету 3 раза, и монета трижды выпала «орлом»? По нашей оценке, вероятность в следующий раз получить «орла» равна 100%, так как
Байесовский вывод
Байесовский подход позволяет по-другому взглянуть на величины, с которыми мы работаем. В вышеуказанном частотном подходе мы предполагали, что существует «истинное» фиксированное значение
Апостериорное распределение получается умножением априорного распределения на вероятность выборки (или функцию правдоподобия). Вероятность выборки пропорциональна произведению членов
Но как правильно выбрать априорное распределение? Описанное выше априорное распределение задается в виде бета-распределения:
Коэффициент
Математическое ожидание бета-распределения равно:
Для вычисления апостериорного распределения нужно умножить априорное распределение на функцию правдоподобия. Оставляя только члены, зависимые от
Мы получили бета-распределение
Здесь может возникнуть вопрос: «Какой смысл имеют параметры
Теперь имея выборку
Это в точности схоже с определением математического ожидания бета-распределения
Такое предсказание устойчиво к маленьким выборкам. Даже если
Связь предсказаний из байесовского вывода и метода максимума правдоподобия
Теперь давайте сравним предсказания, полученные методом максимума правдоподобия и байесовским выводом. При увеличении размера выборки предсказание из байесовского вывода стремится к предсказанию по методу максимума правдоподобия:
Это иллюстрирует тот факт, что с увеличением размера выборки влияние априорных значений на результат снижается. Предсказание для
Иллюстрация эволюции байесовской оценки с ростом выборки
Ниже можно пронаблюдать, как меняется апостериорное распределение
Можно увидеть, что с увеличением размера выборки,

Список литературы
- Bishop, Christopher M. Pattern Recognition and Machine Learning. New York :Springer, 2006.
- Deep Learning (Ian J. Goodfellow, Yoshua Bengio and Aaron Courville), MIT Press, 2016.
Комментарии (4)
YuryZakharov
02.04.2022 01:23+1Все, что мы знаем о монете, — это то, что результаты бросков независимы,
и у нас нет способа на них повлиять.Если мы не знаем, честная ли монета, то, наверное,
Есть ли у нас способ предсказать, какой стороной выпадет монета при следующем броске?
не имеет смысла, n'est-ce pas?
akhalat
В формуле для мат. ожидания сразу после этого абзаца, m под суммой лишняя.
Да и суммы должны идти с m=1, а не с 0.
Assistant_Branch_Manager Автор
Спасибо, поправил, что я имел в виду. В левой части просто определения матожидания и дисперсии.
m здесь - это количество событий x=1 в серии бросков длины N, поэтому меняется от 0 до N
akhalat
В самом начале у вас всё верно и логично было написано: сумма мат. ожиданий случайных величин есть мат. ожидание от их суммы, и то же самое для дисперсии, т.к. величины независимые.