Всем привет! На связи вновь Меликян Маргарита, мы уже знакомились в статье, где поговорили немного о математическом анализе, а теперь (после принятых зачётов и экзаменов) захотелось сказать пару слов и по поводу курса теории вероятностей.

Общие проблемы, возникающие у неофитов высшей математики, уже были рассмотрены мною в статье про мат.анализ, поэтому их я опускаю (ознакомьтесь с вышеуказанной статьёй, если ещё не), и сразу приступаю к подсвечиванию специфичных для тервера проблемных мест.

  1. Раздел математики, без которого в курсе теории вероятностей вам придётся очень туго — это комбинаторика. Многие сейчас проходят её в школах, но, как показывает практика, далеко не всегда этот курс осваивается достаточно хорошо для дальнейшего использования в жизни (т.е. в том же тервере). И, несмотря на то, что, как посмеиваются старшие коллеги, комбинаторику можно изучать бесконечно, и так и испытывать в ней некоторые затруднения при решении ряда задач (и здесь на самом деле только доля шутки!), попытаться улучшить своё положение на этом поприще всё же имеет смысл.

    Довольно удобным оказывается в каждой задаче на простейших этапах вычленять, к какому из четырёх случаев относится рассматриваемая ситуация, а именно, является ли выборка (то есть набор выбираемых по какому-то принципу объектов)

    а) упорядоченной (нам важен порядок выбора объектов) или же неупорядоченной
    (соответственно, не важен),

    б) с повторениями/возвращениями (т.е. разрешено один и тот же объект выбрать сколько угодно раз) или же без повторений/возвращений.

    В голове удобно держать табличку, в которой на пересечении нужных вам столбца и строки записан ответ, сколькими способами можно выбрать k объектов из n объектов, данных в задаче:

    \begin{array}{ccc}  & \text{упорядоченная} & \text{неупорядоченная}\\ \text{без возвращения} & A_{n}^{k}=\frac{n!}{(n-k)!} & C_{n}^{k}=\frac{n!}{k!(n-k)!}\\ \text{с возвращениями} & n^{k} & C_{n+k-1}^{k} \end{array}

    Чрезвычайно полезно вывести эти формулы самостоятельно, тогда вы всегда можете себя проверить и с меньшей вероятностью ошибётесь при решении задач. А дальше практика, практика и ещё раз практика!

  2. Для чего, собственно, был первый пункт — классическая вероятность. Классическое вероятностное пространство — простейший пример вероятностного пространства, поэтому любой курс теории вероятности обязательно затронет эту тему, причём в самом начале пути. Что здесь важно? Здравый смысл. И немного "чуйка". Например, если вы дважды кидаете монету и записываете результат, то сказать, что исход, состоящий из двух выпавших орлов, имеет ту же вероятность, что и из двух разных сторон (орла и решки), в случае, когда вы не учитываете порядок, в котором они выпали, хочется, но не можется, ведь первому соответствует как бы одна ситуация, а второму аж две (когда появился сначала орёл, а потом решка, и наоборот, и уже все эти 3 указанных случая больше похожи на равновероятные).

  3. Ещё один важный момент, связанный с дискретными вероятностными пространствами, рассмотрим на примере классического.

    Для этого рассмотрим следующую задачу:

    На зачёте по теории вероятностей каждому человеку в группе из 25 человек предстоит решить по одной задаче, которые вытаскивают случайным образом по очереди (без возвращения) из кучи в 25 задач. Какова вероятность того, что студент, умея решать всего 10 задач, вытащит задачу, которую сможет решить, при условии, что он делает это а) первым, б) вторым?

    Решение: правило, которое стоит взять на вооружение, особенно на первых парах — стройте вероятностное пространство при решении задач (зачем оно нам надо, будет в пункте 4, не переключайтесь). Предлагаю здесь выбрать множество элементарных исходов следующим образом (есть и другие способы):

    \varOmega=\{(a_{1},...,a_{25}),\;a_{j}\in\{1,...,25\},\;a_{i}\neq a_{j},\;i\neq j\},

    здесь a_{i} означает номер выбранного билета студентом, вытаскивающим задачу i-м по счёту.

    Начнём с пункта а) задачи. Это означает, что нам, раз мы строим классическое вероятностное пространство, нужно найти число "благоприятных" исходов (т.е. распределений задач, где на первой позиции стоит одна из 10 хороших задач) и разделить это число на общее число исходов, т.е. мощность множества \varOmega. Мощность множества \varOmegaпредставляет собой число способов упорядочить 25 объектов, то есть 25!. Теперь посчитаем число благоприятных: на первом месте должен стоять один из 10 хороших, а оставшиеся задачи могут быть упорядочены любым способом, т.е. получаем 10\cdot24!, откуда получаем вероятность \frac{10\cdot24!}{25!}=\frac{10}{25}=\frac{2}{5}=0,4.

    Чем же будет отличаться от этого пункта пункт б)? А принципиально ничем: только теперь мы сначала на второе место поставим хорошую задачу, а остальные я могу переставлять, как угодно. Поначалу такое положение дел может показаться странным, но такова жизнь. И, чтобы не запутаться и не пойти на поводу нашей обыденной жизненной интуиции в отношении вероятности (которая, как известно, частенько нас подводит, и тому есть немало примеров), нужно твёрдо запомнить, что после того, как вы ввели вероятностное пространство, вы уже имеете дело не с пространной жизненной, почти мифической, "вероятностью", а оперируете вполне земными объектами, в данном случае, элементарными исходами, ну а дальше комбинаторика — ваш лучший друг, если речь идёт, как у нас в примере, о классической вероятности.

  4. Почему в пункте 3 решение задачи было начато с построения вероятностного пространства? Потому как выбор вероятностного пространства может довольно сильно влиять на полученный результат (достаточно вспомнить знаменитый парадокс Бертрана, но есть и другие примеры).

    Настоящий портал в ад открывается, когда начинают проходить случайные величины и связанные с ними понятия! Итак, начнём:

  5. Записи вида P(\xi), где \xi — случайная величина, смысла не имеют и иметь не могут, т.к. вероятности мы ищем у СОБЫТИЙ, а случайная величина — это функция, вероятность такое не переваривает. Вот запись P(\xi\in(3;10]) уже осмыслена.

  6. Функция распределения не просто так называется функцией. Если вы
    пытаетесь записать, как ее найти, зная плотность распределения случайной
    величины, убедитесь, что в выражении справа получается функция, зависящая
    от той переменной, что вы указали у функции, а не число или еще что:

    F(x)=\int_{-\infty}^{x}p(t)dt,-\text{хорошо,}

    а, например,

F(x)=\int_{-\infty}^{+\infty}p(t)dt,-\text{однозначно плохо!}
  1. Крайне полезно при поиске функции распределения (ф.р.) проверить полученный результат на предмет того, что полученная функция (действительно функция!) удовлетворяет всем свойствам функции распределения, чтобы избежать неловких ответов наподобие такого:

    F(x)=x^{3}.

    Ф.р. может быть задана подобной формулой, но уж точно далеко не на всей области определения.

  2. Отрицательная дисперсия - и вы кандидат на незачёт/неуд. Запомнить, что что-то с этим не так, можно, запомнив смысл дисперсии — это средний разброс квадрата расстояния значений случайной величины от её среднего, а квадраты действительных чисел отрицательное значение не выдадут. Кстати о среднем...

  3. Среднее значение — это число! Начнём с простого: вам дана кость с несмещённым центром тяжести. Надо найти среднее число очков, которое она может выдать при бросании. Очевидно, надо сделать так:

    \frac{1+2+3+4+5+6}{6}=3,5.

    Что, с другой стороны, может быть записано как:

    1\cdot\frac{1}{6}+...+6\cdot\frac{1}{6},

    где \frac{1}{6} интерпретируется, как вероятность выпадения соответствующего значения. Эту идею мы и распространяем на случай дискретных случайных величин, у которых вероятности появлений значений могут различаться:

    E\xi=\sum_{k}x_{k}P(\xi=x_{k}).

    (Здесь еще надо бы оговориться, что эта формула работает только в случае, когда соответствующий ряд абсолютно сходится, иначе характеристика получается супер-бесполезной, если мы начнём менять порядок суммирования). Итак, как мы выяснили, среднее значение — это ЧИСЛО. Поэтому здесь при попытке написать формулу для поиска среднего абсолютно непрерывной случайной величины придётся пользоваться советом, прямо противоположным пункту 6:

    E\xi=\int_{-\infty}^{+\infty}tp_{\xi}(t)dt,-\text{хорошо,}

    а, например,

    E\xi=\int_{-\infty}^{x}tp_{\xi}(t)dt,-\text{плохо}!

    Ещё, кстати, любят просто писать

    E\xi=\int_{-\infty}^{+\infty}p_{\xi}(t)dt,

    что, конечно же, тоже не годится в качестве определения среднего, т.к. это выражение всегда равно 1, если вам действительно дали проинтегрировать плотность распределения. Да и вообще, если пояснять формулу "на пальцах" , то мы фактически должны просуммировать (ну континуально, бывает) значения случайной величины, учитывая его "вес" в данном случае в его качестве берётся плотность, а в дискретном вы просто брали вероятность появления этого значения).

  4. И вот мы дошли до двух важнейших аббревиатур в курсе — ЦПТ и ЗБЧ. В формулировках этих теорем как правило частенько совершаются ошибки, связанные с тем, что студенты путают эти две теоремы в их простых формулировках, ведь и там, и там фигурирует сумма случайных величин. Что делать? Немного может помочь в голове связь "Закон Больших ЧИСЕЛ — результат-ЧИСЛО (среднее)" (д.б. сходимость по вероятности), а "ЦПТ — сходимость ПО РАСПРЕДЕЛЕНИЮ" (т.е. надо
    написать функцию распределения и справа, и слева). Но, как понимаете, для этого было бы хорошо ещё выучить определения сходимостей последовательностей случайных величин.

  5. Предельные теоремы Муавра-Лапласса. Если вы уже запомнили ЦПТ, то вам повезло, т.к. интегральная теорема Муавра-Лапласса — это частный случай ЦПТ, где в качестве последовательности случайных величин взята последовательность независимых одинаково распределенных (н.о.р. — стандартное сокращение) бернуллиевских случайных величин, а, соответственно, вычитать надо среднее их суммы (т.е. среднее биномиального распределения), а делить на корень из дисперсии биномиального распределения. Здесь я также пользуюсь тайным полезным знанием о том, что сумма n н.о.р. бернуллиевских случайных величин с параметром p моделирует случайную величину, распределённую биномиально с параметрами Bin(np,\;npq),\;q=1-p.

На этом на сегодня всё, удачи вам в познании!

PS Если у вас возникло ощущение, что предмет‑то никому не нужный, то спешу вас обрадовать — это основа основ всех остальных вероятностных курсов, а именно, столь важных в приложениях (обработка данных экспериментов, машинное обучение, финансы, актуарная математика...) мат.статистики и теории случайных процессов.

Комментарии (1)