==Теория вероятностей==
~~TOC~~
Вспомогательный раздел. Пока здесь выложены основы теории на полуинтуитивном уровне.
===Случайное событие, случайная величина==
На практике часто приходится сталкиваться со случайными процессами (испытаниями, опытами, наблюдениями), т.е. процессами, результаты которых различны и зависят от обстоятельств, которые мы не знаем или не умеем учитывать. Так, к примеру, при бросании игральной кости (шестигранного кубика, с гранями, занумерованными цифрами $ 1,2,3,4,5,6 $) мы не можем знать заранее какая грань окажется сверху, так как это зависит от многих неизвестных нам обстоятельств. Нельзя также предсказать заранее, сколько выпускников школы подаст в определенный год
заявления на конкретный факультет СПбГУ или сколько дождливых дней будет в августе следующего года.
Применение математики к изучению подобного рода явлений опирается на то, что во многих случаях при многократном повторении одного и того же опыта в одних и тех же условиях частота появления интересующего нас результата (т.е. отношение числа опытов, в которых этот результат наблюдался, к общему числу производимых опытов) остается все время примерно одинаковой, близкой к некоторому постоянному числу.
События, которые могут произойти или не произойти на каждом шаге случайного процесса (или в результате производимого опыта) будем называть **случайными событиями** (или **исходами** данного **опыта**).
**Вероятностью события** называется отношение числа равновероятных исходов, благоприятных для данного события к общему числу равновероятных исходов.
!!§!! Везде в настоящем разделе предполагается, что число событий конечно.
Случайные события будем обозначать большими латинскими буквами $ A,B,S $ и т.п., а их вероятности обозначать буквой[[Probabilitas (лат.) --- правдоподобие, вероятность.]] $ P_{} $, именно: $ P(A), P(B), P(S), \dots $.
!!§!! Иногда я буду использовать и строчную букву $ p_{} $, но тогда возникает коллизия с ((:numtheory#простые_числа теорией целых чисел)) --- буква $ p_{} $ зарезервирована в ней за простым числом.
Из этого определения следует, что вероятность всегда выражается правильной дробью. Так, например, пусть имеется хорошо перемешанная колода из $ 36 $ игральных карт, и из этой колоды вынимают одну карту, тогда число случаев благоприятных тому событию,
что карта будет бубновой масти
♦
равно $ 9_{} $, общее число всех равновероятных случаев равно $ 36 $. Поэтому
$$ P_{} (\mbox{ появление карты бубновой масти }) = \frac{9}{36}= \frac{1}{4} . $$
Пусть случайный процесс может находиться в одном из $ n_{} $ возможных состояний $ S_1,S_2,\dots, S_n $ с вероятностями, заданными таблицей
$$
\begin{array}{l|l|l|l}
S_1 & S_2 & \dots & S_n \\
\hline
P_1 & P_2 & \dots & P_n
\end{array} \quad \mbox{ при этом } \quad P_1+P_2+\dots+P_n=1 \ .
$$
Предположим, что каждое из состояний описывается появлением некоторого вещественного числа, т.е. $ S_1=a_1,\dots,S_n=a_n $ при $ \{a_j\}_{j=1}^{n} $ --- различных. Например, замеры температуры в Петербурге, с интервалом в $ 12 $ часов, с точностью до десятых долей градуса ((http://ru.wikipedia.org/wiki/%D0%9A%D0%BB%D0%B8%D0%BC%D0%B0%D1%82_%D0%A1%D0%B0%D0%BD%D0%BA%D1%82-%D0%9F%D0%B5%D1%82%D0%B5%D1%80%D0%B1%D1%83%D1%80%D0%B3%D0%B0 попадают)) в набор чисел $ \{-35.9,-35.8,\dots,+37.0,+37.1\} $.
В данном случае случайный процесс "оцифрован" --- каждое его состояние описывается числом; для такого случайного процесса принято название **случайная величина**.
===Математическое ожидание и дисперсия==
Само название "случайная величина" обязывает как-то оценивать ее значение. Это удается сделать с помощью понятия среднего значения.
Для случайной величины $ A_{} $ с таблицей вероятностей
$$
\begin{array}{l|l|l|l}
a_1 & a_2 & \dots & a_n \\
\hline
P_1 & P_2 & \dots & P_n
\end{array} \ ;
P_1+P_2+\dots+P_n=1 \ .
$$
**средним значением** или **математическим ожиданием случайной величины** $ A_{} $ называется число[[В англоязычной литературе называется Expectation или expected value и обозначается $ E(A) $.]]
$$ M(A)=P_1a_1+P_2a_2+\dots+ P_n a_n \ . $$
В случае равновероятных состояний имеем:
$$ M(A)= (a_1+a_2+\dots+ a_n)/n \ . $$
!!?!! Таблицы вероятностей, указывающие частоту попаданий в мишень двух стрелков $ A_{} $ и $ B_{} $ имеют вид
$$
\begin{array}{c|c|c|c|c|c|c|c|c|c|c|c}
& 0 & 1 & 2 & 3 & 4 & 5 & 6 & 7 & 8 & 9 & 10 \\
\hline
A & 0.02 & 0.03 & 0.05 & 0.10 & 0.15 & 0.20 & 0.20 & 0.10 & 0.07 & 0.05 & 0.03 \\
\hline
B & 0.01 & 0.01 & 0.04 & 0.10 & 0.25 & 0.30 & 0.18 & 0.05 & 0.03 & 0.02 & 0.01
\end{array}
$$
{{ befunky_dscf4256.jpg |}}
Кого из стрелков следует считать более метким?
!!?!! Какова, на Ваш взгляд, среднегодовая температура в Петербурге? Выскажите гипотезу 8-), а потом попробуйте найти статистику в интернете.
Еще одной характеристикой случайной величины $ A_{} $ является ее **дисперсия**, т.е. мера разброса значений этой величины от ее среднего значения $ M(A) $. Она вычисляется по формуле[[В англоязычной литературе называется //variance// и обозначается $ \operatorname{Var}(A) $.]]
$$ D(A)=\sum_{j=1}^n P_j ( a_j-M(A))^2 $$
и представляет собой математическое ожидание случайной величины, равной квадрату отклонения случайной величины $ A $ от ее среднего значения $ M(A) $.
Часто обозначается $ \sigma^2 $, где величина[[Корень --- арифметический.]] $ \sigma=\sqrt{D(A)} $ называется **среднеквадратичным отклонением**.
Если на наших мишенях ввести декартову прямоугольную систему координат с началом координат --- в центрах, то координаты попаданий можно считать случайными величинами.
В терминологии стрельбы, можно сказать что дисперсии этих случайных велчин являются характеристиками ((https://ru.wikipedia.org/wiki/%D0%9A%D1%83%D1%87%D0%BD%D0%BE%D1%81%D1%82%D1%8C_%D0%B1%D0%BE%D1%8F_%D0%BE%D1%80%D1%83%D0%B6%D0%B8%D1%8F кучности боя оружия)).
Так, в случае равновероятных состояний имеем:
$$
D(A)=\frac{1}{n}\sum_{j=1}^n \left( a_j- \frac{1}{n} \sum_{i=1}^n a_i \right)^2=\frac{1}{n^2} \sum_{i,j=1}^n \frac{1}{2} (a_i-a_j)^2= \frac{1}{n^2} \sum_{1\le i
♣