Реферат по предмету "Математика"


Курс лекций по теории вероятностей

Раздел 1. Классическая вероятностная схема1.1 Основные формулы комбинаторики
В данном разделе мы займемся подсчетом числа «шансов». Очисле шансов говорят, когда возможно несколько различных результатовкакого-либо действия (извлечение карты из колоды, подбрасывание кубика илимонетки, двух кубиков и т.д.). Число шансов — это число таких возможныхрезультатов, или, иначе говоря, число способов проделать это действие.Теорема о перемножении шансов
Теорема 1.Пусть имеется, k группэлементов, причем i-ягруппа содержит niэлементов, 1ik. Выберем из каждой группы поодному элементу. Тогда общее число Nспособов, которыми можно произвести такой выбор, равняется
/>
Замечание1. В теореме 1 считается, что даже если все элементы в i-й группе неразличимы, выбратьодин из них можно niспособами.
Замечание2. Результат выбора, описанного в теореме 1,представим в виде набора (а1, а2,…, аk) в котором аi — выбранный из i-й группы элемент. Тогда общее числоразличных наборов (а1, а2,…,аk)также равняется
/>
Доказательствотеоремы 1.
/>Занумеруемэлементы i -ой группычислами от 1 до ni.Элемент из первой группы можно выбрать n1 способами.Если мы выбрали элемент j,1in1, то выбрать элемент из второй группы мы можем n2 способами. Получаем, что с первым элементом j возможно составить n2 пар (j,l), где 1ln2.
Но столько же пар можно составить и с любым другим элементомпервой группы. Тогда всего пар, в которых первый элемент выбран из первойгруппы, а второй — из второй, существует ровно />
Иначе говоря, есть /> способоввыбрать по одному элементу из первых двух групп. Возьмем одну такую пару (j, l). Заметим, что элемент из третьей группы можновыбрать n3 способами, то есть возможносоставить ровно n3 троек (j, l, m),добавляя к данной паре (j,l) любой из n3 элементовтретьей группы.
Но столько же троек можно составить и с любой другой парой (j, l). Тогда всеготроек, в которых первый элемент выбран из первой группы, второй — из второй, атретий — из третьей, существует ровно />.
Продолжая рассуждения, методом математической индукциизаключаем справедливость утверждения теоремы.Урны и шарики
Есть урна, (то есть ящик), содержащая n занумерованных объектов, которые мы без ограниченияобщности будем считать шариками. Мы выбираем из этой урны k шариков. Нас интересует, сколькимиспособами можно выбрать k шариков из n, или сколько различных результатов (то естьнаборов, состоящих из kшариков) получится.
На этот вопрос нельзя дать однозначный ответ, пока мы неопределимся
·    с тем, как организован выбор (скажем, можно ли шарики возвращатьв урну), и
·    с тем, что понимается под различными результатами выбора.
Рассмотрим следующие возможные схемы выбора:
1. Выбор с возвращением: каждый выбранный шарик возвращаетсяв урну, то есть каждый из kшариков выбирается из полной урны. В полученном наборе, состоящем из k номеров шариков, могутвстречаться одни и те же номера (выборка с повторениями).
2. Выбор без возвращения: выбранные шарики в урну невозвращаются, и в полученном наборе не могут встречаться одни и те же номера (выборкабез повторений).
И в том, и в другом случае результатом выбораявляется набор из kномеров шариков. Удобно считать, что шарики всегда выбираются последовательно,по одному (с возвращением или без).
Условимся, какие результаты мы будем считать различными.
Есть ровно две возможности.
1. Выбор с учетом порядка: два набора номеров шариковсчитаются различными, если они отличаются составом или порядком номеров. Так,при выборе трех шариков из урны, содержащей 5 шариков, наборы (1,2,5), (2,5,1)(4,4,5) различны, если производится выбор с учетом порядка.
2. Выбор без учета порядка: два набора номеровшариков считаются различными, если они отличаются составом. Наборы,отличающиеся лишь порядком следования номеров, считаются одинаковыми. Так, впримере выше первые два набора (1,2,5), (2,5,1) есть один и тот же результатвыбора, а набор (4,4,5) — другой результат выбора.
Подсчитаем теперь, сколько же возможно различных результатовпри каждой из четырех схем (выбор с возвращением и без, и в каждом из этихслучаев учитываем ли мы порядок или нет).Урновая схема: выбор без возвращения, с учетом порядка/> />
Теорема 2. Общееколичество выборок в схеме выбора kэлементов из n безвозвращения и с учетом порядка определяется формулой
и называется числом размещений из n элементов по k элементов.
Доказательство.Первый шарик можно выбрать n способами. При каждом из этих способов второй шарикможно выбрать n-1 способом, и т.д. Последний k-й шарик можно выбрать (n-k+1) способом. По теореме 1, общеечисло способов выбора равно
/>
что и требовалось доказать.
Следствие1. Число возможных перестановок множества из n элементов есть n!/> />
Доказательствоочевидно, если заметить, что перестановка есть не что иное, как результатвыбора без возвращения и с учетом порядка всех n элементов из n. Так что общее число перестановок равноУрновая схема: выбор без возвращения и без учета порядка
Теорема 3.Общее количество выборок в схеме выбора k элементов из nбез возвращения и без учета порядка определяется формулой/> />
и называется числом сочетаний из n элементов по kэлементов.
Доказательство. Заметим, что, согласноследствию 1, из каждой выборки данного состава (состоящей из k элементов) можно образовать k!выборок, отличающихся друг от друга только порядком элементов.
То есть число выборок, различающихся еще и порядком, в k! раз больше, чем число выборок, различающихся только составом. Поделив />на k!,получим утверждение теоремы.Урновая схема: выбор с возвращением и с учетом порядка/> />
Теорема 4.Общее количество выборок в схеме выбора k элементов из nс возвращением и с учетом порядка определяется формулой
Доказательство.Первый шарик можно выбрать nспособами. При каждом из этих способов второй шарик можно выбрать также n способами, и так k раз.Урновая схема: выбор с возвращением и без учета порядка
Рассмотрим урну с двумяшариками и перечислим результаты выбора двух шариков из этой урны при выборе свозвращением:С учетом порядка Без учета порядка
(1, 1)
(2, 2)
(1, 2)
(2, 1)
(1, 1)
(2, 2)
(1, 2)
Заметим, что в схеме «без учета порядка» получилось3 различных результата в отличие от четырех в схеме «с учетом порядка». (число4 возникает и согласно теореме 4); и что никаким делением на «числокаких-нибудь перестановок» число 3 из 4 получить не удастся./> />
Теорема 5.Общее количество выборок в схеме выбора k элементов из nс возвращением и без учета порядка определяется формулой
Доказательство.Рассмотрим подробно, чем отличаются друг от друга два разных результата такойсхемы выбора. Нам не важен порядок номеров, то есть мы учитываем только,сколько раз в нашем наборе из kномеров шариков появился шарик номер 1, шарик номер 2, …, шарик номер n. То есть результат выбораможно представить набором чисел k1, k2, …kn, в котором ki — число появленийшарика номер i ввыборке, и k1+ k2+ …+kn.= k. При этом два результата эксперимента различны, если соответствующиеим наборы k1, k2, …,kn не совпадают.
Представим себе другой эксперимент, имеющий точно такие жерезультаты (и, следовательно, их столько же). Есть n ящиков, в которых размещается k шариков. Нас интересует толькоколичество шариков в каждом ящике. То есть, результатом эксперимента сноваявляется набор чисел k1, k2, …kn,в котором ki— число шариков в ящике с номером i,и k1+ k2+ … +kn.= k. Числа kiпо-прежнему принимают натуральные значения или равны 0./> />
А теперь изобразим результат такого размещения в виде схемы, в которойвертикальные линии обозначают перегородки между ящиками, а кружки — находящиесяв ящиках шарики:
Мы видим результат размещения 9 шариков по 7 ящикам. Здесь1-й ящик содержит 3 шарика, 2-й и 6-й ящики пусты, 3-й ящик содержит 1 шарик, ив 4-м и 5-м ящиках есть по 2 шарика. Переложим один шарик из первого ящика вовторой и изобразим таким же образом еще один результат размещения:
/>
И еще один:/> />
Видим, что все размещения можно получить, меняя между собой шарики иперегородки, или расставляя kшариков на n-1+k месте. Число n-1+k получается так: у n ящиков есть ровно n+1 перегородка,считая крайние, или n-1 перегородка, если не считать крайние,которые двигать нельзя. И есть kшариков. Перебрав все возможные способы расставить k шариков на этих n-1+k местах (и ставя на оставшиесяместа перегородки), переберем все нужные размещения.
Но способов расставить kшариковна n-1+k местах ровно />— это вточности число способов выбрать из n-1+k номеров мест kномеров мест (без учета порядка и без возвращения), на которые нужно поместитьшарики. Заметим, что равенство /> вернокак по определению биномиальных коэффициентов или свойствам треугольникаПаскаля, так и в силу того, что можно вместо выбора k мест для шариков выбирать n-1место для перегородок ящиков, заполняя шариками оставшиеся места.1.2 Основные понятия элементарной теории вероятностейПредмет теории вероятностей. Статистическая устойчивость.
Теория вероятностей изучает закономерности, возникающие вслучайных экспериментах (явлениях). Случайным называют эксперимент, результаткоторого нельзя предсказать заранее. Невозможность предсказать заранее —основное, что отличает случайное явление от детерминированного.
Не все случайные явления (эксперименты) можноизучать методами теории вероятностей, а лишь те, которые могут бытьвоспроизведены в одних и тех же условиях и обладают (непонятно как проверяемымзаранее) свойством «статистической устойчивости: «если А —некоторое событие, могущее произойти или не произойти в результатеэксперимента, то доля n(A)/n числа экспериментов, в которых данное событие произошло,имеет тенденцию стабилизироваться с ростом общего числа экспериментов n, приближаясь к некоторомучислу P(A). Это число служит объективнойхарактеристикой «степени возможности» событию Апроизойти.
В дальнейшем мы будем говорить лишь о случайныхэкспериментах, обладающих данными свойствами, а свойство статистическойустойчивости докажем в утверждении, известном как закон больших чиселЯ.Бернулли.Пространство элементарных исходов. Операции над событиями
Определение1. Пространством элементарных исходов Ω («омега») называется множество,содержащее все возможные результаты данного случайного эксперимента, из которыхв эксперименте происходит ровно один. Элементы этого множества называют элементарнымиисходами и обозначают буквой ω(«омега») с индексами или без.
Определение2. Событиями мы будем называть подмножества множества Ω. Говорят, что в результатеэксперимента произошло событие А Í Ω, если в эксперименте произошел одиниз элементарных исходов, входящих в множество А.
Замечание3. Вообще говоря, можно назвать событиями не обязательно всеподмножества множества Ω, алишь множества из некоторого набора подмножеств. О смысле такого ограничения мыпоговорим позднее.
Пример 1.Один раз подбрасывается одна игральная кость (кубик). Самый разумный способзадать пространство элементарных исходов таков: Ω= {1,2,3,4,5,6}, элементарныеисходы здесь соответствуют числу выпавших очков.
Примеры событий: A = {1,2}— выпало одно или два очка; A = {1,3,5}— выпало нечетное число очков.
Пример 2.Два раза подбрасывается одна игральная кость (кубик). Или, что, то же самое,один раз подбрасываются две игральные кости. Как мы увидим в дальнейшем, здесьсамый разумный способ задать пространство элементарных исходов — считать результатомэксперимента упорядоченную пару чисел (i, j),в которой 1£i, j £6иi — число очков выпавших первыйраз, j– число очков, выпавших второйраз. Ω= {(i, j), где 1£i, j £6}
Примеры событий:
A = {(1,1), (1,2), (1,3),(1,4), (1,5), (1,6)} — при первом подбрасывании выпало одно очко;
A = {(1,1),(2,2), (3,3),(4,4), (5,5), (6,6)} — при двух подбрасываниях выпало одинаковоечисло очков.
Пример 3.На поверхность стола бросается монета. Результатом эксперимента можно считатькоординату центра монеты (а если нам не безразличен угол поворота монеты, томожно добавить и величину этого угла). Пространство элементарных исходов —множество точек стола (во втором случае — множество пар {x, φ}, где x— координата точки стола и φ Î[0, 2π]— уголповорота). Число элементарных исходов такого эксперимента несчетно.
Пример 4.Монета подбрасывается до тех пор, пока не выпадет вверх гербом. Пространствоэлементарных исходов состоит из бесконечного, но счетного числа исходов:
Ω = {г, рг, ррг,рррг, ррррг, рррррг, …}, где р и гобозначают выпадение решки и герба при одном подбрасывании, соответственно.
Пример 5.Приведем пример неправильно выбранного пространства элементарных событий. Пустьпри бросания игральной кости Ч = {четное число очков}, Т = {число очков,кратное трем}. Тогда Ω = {Ч, Т, 1, 5} составляет все исходыэксперимента, однако исходы Ч и Т могут наступать одновременно.
Определение3.
1. Достоверным называется событие, котороеобязательно происходит в результате эксперимента, то есть единственное событие,включающее все без исключения элементарные исходы — событие Ω.
2. Невозможным называется событие которое не можетпроизойти в результате эксперимента, то есть событие, не содержащее ни одногоэлементарного исхода («пустое множество» Æ).Заметим, что всегда Æ Î Ω.
Определение4. Пусть А иВ — события.
1. Объединением АU В событий АиВ называется событие,состоящее в том, что произошло либо А ,либо В, либо оба событияодновременно. На языке теории множеств АU В есть множество, содержащее какэлементарные исходы, входящие в А, так и элементарные исходы, входящие вВ.
2. Пересечением А∩ В событий А иВназывается событие, состоящее в том, что произошли оба события А иВодновременно. То есть А∩ В есть множество,содержащее элементарные исходы, входящие одновременно в А и в В.
3. Дополнением А\В события А доВназывается событие, состоящее в том, что произошло событие А , но не произошло В. То есть А\В есть множество, содержащееэлементарные исходы, входящие в А,но не входящие в В.
4. Противоположным (или дополнительным) ксобытию А называется событие />, состоящее в том, чтособытие А в результатеэксперимента не произошло. Иначе говоря, /> естьмножество, содержащее элементарные исходы, не входящие в А.
Определение5.
1. События А иВ называются несовместными,если А ∩ В = Æ.
2. События А1,А2, … Аnназываются попарно несовместными, если для любых i≠ j, 1 £ i,j£ n, события Аiи Аj несовместны.
3. Говорят, что событие Авлечет событие В, и пишут А ÍВ, если всегда, как толькопроисходит событие А, происходит исобытие В. На языке теориимножеств это означает, что любой элементарный исход, входящий в А, одновременно входит и в событие В.Вероятность на дискретном пространстве элементарных исходов
Предположим, что мы имеем дело с дискретнымпространством элементарных исходов, то есть пространством, состоящим изконечного или счетного числа элементов:
Ω = {ω1,ω2, … ωn,… }.
Определение6. Поставим каждому элементарному исходу ωi Î Ωв соответствие число p(ωi)Î[0,1] так,что/> />
Назовем число p(ωi)вероятностью элементарного исхода ωi.Вероятностью события А ÍΩ называется число
равное сумме вероятностей элементарных исходов, входящих вмножество А.
Замечание4. Позднее, познакомившись с аксиоматикой теории вероятностей, мызададим вероятности событий непосредственно, а не через вероятностиэлементарных исходов. Тем более, что сложением вероятностей элементарныхисходов можно получить лишь вероятность события, состоящего не более чем изсчетного числа элементарных исходов (иначе само понятие суммирования неопределено). Но на дискретном пространстве элементарных исходов определитьвероятности событий так, как это сделано в определении 6, всегда возможно.
Перечислим очевидные в случае дискретного пространстваэлементарных исходов свойства вероятности, которые мы скоро докажем сразу вобщем случае.
1.    0 £Р(А)£1;
2.    Р(Ω)= 1;
3.    Р(Æ) = 0;
4.    Р(Ō)= 1 — Р(О);
5. если А иВ несовместны, то Р(А UВ) =Р(А) + Р(В);
6. в общем же случае Р(АUВ) = Р(А) + Р(В) — Р(А ∩В);
7. если А ÍВ, то Р(А)£Р(В).Классическое определение вероятности
Предположим, что мы имеем дело с пространством элементарныхисходов, состоящим из конечного числа N элементов: Ω ={ω1, ω2, … ωN}. Более того, предположим, что изкаких-либо соображений мы можем считать элементарные исходы равновозможными.Тогда вероятность любого из них принимается равной 1/N.
Эти соображения чаще всего не имеют отношения кматематической модели и основаны на какой-либо симметрии в эксперименте(симметричная монета, хорошо перемешанная колода карт, правильная кость). Либомы можем заранее считать исходы эксперимента равновозможными, но тогда рано илипоздно все равно возникнет вопрос о соответствии такой математической моделиреальному эксперименту.
Если событие А = {/>} состоит из kэлементарных исходов, то вероятность этого события равняется
/>
отношению k/N:
где символом │А│обозначено число элементов конечного множества А.
Определение7.
Говорят, что эксперимент удовлетворяет классическомуопределению вероятности (или классической вероятностной схеме), еслипространство элементарных исходов состоит из конечного числа │А│ =N равновозможных исходов./> />
В этом случае вероятность любого события Авычисляется по формуле
называемой классическим определениемвероятности. Эта формула читается так: «вероятность события А равна отношению числа исходов, благоприятствующихсобытию А, к общему числуисходов».
Замечание5. Полезно помнить классическую формулировку Якоба Бернулли: «Вероятностьесть степень достоверности и отличается от нее как часть от целого». (Ars Conjectandi, 1713 г.)
Замечание6. Мы видим теперь, что подсчет вероятности в классической схемесводится к подсчету числа «шансов» (элементарных исходов), благоприятствующихкакому-либо событию, и общего числа шансов. Как правило, это делается с помощьюформул комбинаторики.
Рассмотрим описанные в параграфе 1.1 урновые схемы.Напомним, что речь идет об извлечении k шариковиз урны, содержащей nшариков. При этом три схемы: с возвращением и с учетом порядка, без возвращенияи с учетом порядка, а также без возвращения и без учета порядка удовлетворяютклассическому определению вероятности.
Общее число элементарных исходов в этих схемах подсчитано втеоремах 4, 2, 3 и равно, соответственно,/>
Четвертая же схема — схема выбора с возвращением и без учетапорядка — имеет заведомо неравновозможные исходы.
Пример 6.Рассмотрим, скажем, выбор двух шариков из двух или, что то же самое, дваждыподбросим монету. Если учитывать порядок, то исходов получится 4, и все ониравновозможны, то есть имеют вероятность по 1/4:
(герб, герб), (решка, решка), (решка, герб), (герб, решка).
Если порядок не учитывать, то следует объявить два последнихисхода одним и тем же результатом эксперимента, и получить три исхода вместочетырех: выпало два герба, либо две решки, либо один герб и одна решка.
При этом первые два исхода имеют вероятность 1/4, апоследний — вероятность 1/4+1/4=1/2.Гипергеометрическое распределение
Пример 7.
/>Из урны, вкоторой n1 белых и n-n1 чёрных шаров, наудачу, без возвращения вынимают kшаров,kn. Термин «наудачу» означает, что появление любого набора изk шаров равно возможно. Найти вероятность того,что будет выбрано ровно k1 белых и k -k1 чёрных шаров.
Заметим, что при k1 >n1 или k -k1 > n- n1искомая вероятность равна 0, так как соответствующее событие невозможно. Пусть k1 n1 и k -k1 n- n1. Результатом эксперимента являетсянабор из k шаров. Приэтом можно не учитывать или учитывать порядок следования шаров.
1. Выбор без учета порядка. Общее число элементарныхисходов есть число k–элементных подмножеств множества, состоящего из nэлементов, то есть /> (по теореме 3).
Обозначим через Aсобытие, вероятность которого требуется найти. Событию A благоприятствуетпоявление любого набора, содержащего k1 белых шаров и k -k1 черных.
Число благоприятных исходов равно произведению (по теореме1) числа способов выбрать k1 белых шаров из n1и числа способов выбрать k -k1черных шаров из n -n1:
/>/> />
Вероятность события Aравна:
2. Выбор с учетом порядка. Общее число элементарныхисходов есть число способов разместить nэлементов на k местах/> (по теореме 2)./> />
При подсчете числа благоприятных исходов нужно учесть, как число способоввыбрать нужное число шаров, так и число способов расположить эти шары среди k. Можно, скажем, посчитатьчисло способов выбрать k1 местсреди k (равное />), затем число способовразместить на этих k1 местах n1белых шаров (равное /> — не забывайтепро учет порядка!), и затем число способов разместить на оставшихся k-k1 местах n -n1 черных шаров (равное />).Перемножив эти числа, получим:/> />
В рассмотренной задаче мы сопоставили каждому набору из k1белых и k-k1черных шаров вероятность получитьэтот набор при выборе kшаров из урны, содержащей n1белых и n-n1черных шаров:/> />
Определение 8.Соответствие или следующий набор вероятностей
Называется гипергеометрическим распределением.Раздел 2. Геометрическая вероятность2.1 Что это такое
/>Рассмотримкакую-нибудь область Ω в Rm ,(на прямой,на плоскости, в пространстве). Предположим, что «мера» Ω (длина, площадь, объем,соответственно) конечна. Пусть случайный эксперимент состоит в том, что мы наудачубросаем в эту область точку а.Термин «наудачу» здесь означает, что вероятность попадания точки в любую часть А ÍΩ не зависит от формы илирасположения А внутри Ω, а зависит лишь от «меры» области./> />
Определение 9.Эксперимент удовлетворяет условиям «геометрического определения вероятности»,если его исходы можно изобразить точками некоторой области Ω в Rm так, что вероятностьпопадания точки в любую А ÍΩ не зависит от формы или расположения А внутри Ω,а зависит лишь от меры области А (и,следовательно, пропорциональна этой мере):
«Мерой» мы пока будем называть длину, площадь, объем и т.д.
Если для точки, брошенной в область Ω, выполнены условия геометрическогоопределения вероятности, то говорят, что точка равномерно распределена вобласти Ω.
Пример 8.Точка наудачу бросается на отрезок [0,1]. Вероятность точке попасть в точку{0,5} равна нулю, так как мера множества, состоящего из одной точки («длинаточки»), есть 0. Вместе с тем попадание в точку {0,5} не является невозможнымсобытием — это один из элементарных исходов эксперимента.2.2 Задача о встрече
Пример 9.Два лица Х и У условились встретиться в определенномместе между двумя и тремя часами дня. Пришедший первым ждет другого в течении10 минут, после чего уходит. Чему равна вероятность встречи этих лиц, есликаждый из них может прийти в любое время в течение указанного часа независимоот другого?/> />
Будем считать интервал с 14 до 15 часов дня отрезком [0,1] длиной 1 час. Пусть ξ («кси») и η («эта») — моменты прихода Х и У (точки отрезка [0,1]).Все возможныерезультаты эксперимента — множество точек квадрата со стороной 1:
Ω = {( ξ,η): 0 £ξ £1 0 £η £1}=[0,1]x[0,1]/> />
Можно считать, что эксперимент сводится к бросанию точки наудачу в квадрат. Приэтом благоприятными исходами являются точки множества A= {(ξ, η): │ξ — η│ £1/6 } (10 минут = 1/6 часа). То естьпопадание в множество A наудачу брошенной вквадрат точки означает, что Х и У встретятся.
Тогда вероятность встреч и равна2.3 Задача Бюффона
Пример 10.На плоскости начерчены параллельные прямые, находящиеся друг от друга нарасстоянии 2a. На плоскость наудачу брошена игла длины 2la. Какова вероятность того, что иглапересечет одну из прямых?
/>Поймем, чтоозначает здесь «наудачу брошена игла». Возможные положения иглы (отрезка) на плоскостиполностью определяются положением середины иглы и углом поворота иглы относительнокакого-либо направления. Причем две эти переменные (положение центра и уголповорота) меняются независимо друг от друга. Обозначим через хÎ[0, a]расстояние от середины иглы до ближайшей прямой, аφÎ[0, π] —
угол между каким-то направлением прямых и иглой. Множествовозможных положений иглы целиком определяется выбором наудачу точки изпрямоугольника Ω = [0,π] x [0,a].Игла пересекает ближайшую прямую, если координаты выбранной наудачу точкиудовлетворяют неравенству: х £. lsinφ/> />
Площадь области А ÍΩ, точки которой удовлетворяют такомунеравенству, равна/> />
И так как μ(Ω) = aπ,то искомая вероятность равна2.4 Парадокс Бертрана
Пример11 ( Josef Bertrand, “Calcul des Probabilites", 1888).
В круге единичного радиуса наудачу выбирается хорда. Каковавероятность того, что ее длина будет больше, чем длина стороны вписанного вкруг правильного треугольника?
/>Есть покрайней мере три способа «выбрать наудачу хорду в круге». 1. Зафиксируем однуточку (конец хорды) на окружности и выберем наудачу на окружности другую точку(второй конец хорды). Здесь Ω = [0,2π], а благоприятными являются положения второй точки наинтервале [2π/3, 4π/3] (хорды,помеченные на рисунке красным цветом). Вероятность получить «длинную» хордуравна 1/3.
/>2. Существуетровно одна хорда, для которой данная точка в круге является серединой (крометого случая, когда брошенная наудачу точка попадет в центр круга. Но посколькувероятность этого события равна нулю, то учет или неучет такого события невлияет на итоговую вероятность). Можно поэтому выбирать наудачу хорду, бросаянаудачу точку (середину хорды) в круг. Здесь Ω— круг радиуса 1, μ(Ω) = π,а благоприятными являются положения середины хорды внутри вписанного в треугольниккруга (радиусом 1/2).Вероятность получить «длинную» хорду равна отношениюплощадей кругов, то есть 1/4.
/>
3. Наконец, можно ограничиться рассмотрением только хорд,перпендикулярных какому-либо диаметру (остальные могут быть полученыповоротом). То есть эксперимент может состоять в выборе середины хорды наудачуна диаметре круга — отрезке длиной 2. Благоприятными являются положениясередины хорды на отрезке длиной 1. Искомая вероятность для такого экспериментаравна 1/2.
В чем причина разницы в ответах на, казалось бы, один и тотже вопрос? На самом деле формулировка задач и не корректна с математическойточки зрения. «Выбор наудачу хорды в круге» может быть по-разному описан спомощью геометрического определения вероятности (что мы и сделали). То естьэтот «эксперимент» можно по-разному описать с помощью выбора наудачу точки внекоторой области.
Слово «эксперимент» взято в кавычки не напрасно: сказав «вкруге наудачу выбирается хорда», мы еще не описали физического эксперимента.Действительно, каждому из трех предложенных способов выбора хорд можно сопоставитьконкретный физический эксперимент (всякий раз другой).
Так что парадокс исчезает сразу, как только получен ответ навопрос: что значит «в круге наудачу выбирается хорда»?
Заканчивая обсуждение понятия геометрической вероятности,сделаем очень важное для дальнейшего замечание.
Замечание7. Если даже эксперимент удовлетворяет геометрическому определениювероятности, далеко не для всех множеств А ÍΩ вероятность может быть вычисленакак отношение меры А к мере Ω. Причиной этого являетсясуществование так называемых «неизмеримых» множеств, то есть множеств, меракоторых не существует.
А если не для всех подмножеств Ω мы можем определить их вероятности, следует сузитькласс множеств, называемых «событиями», оставив в этом классе только темножества, для которых мы можем определить вероятность.
В следующей главе мы займемся построением (вслед за АндреемНиколаевичем Колмогоровым) аксиоматики теории вероятностей: познакомимся с понятиямиσ-алгебры (или поля) событий,вероятностной меры, вероятностного пространства.Раздел 3. Аксиоматика теории вероятностей3.1 σ -алгебра событий
Пусть Ω —пространство элементарных исходов некоторого случайного эксперимента (то есть,вообще говоря, множество произвольной природы). Мы собираемся определить наборподмножеств Ω, которые будутназываться событиями, и затем задать вероятность как функцию, определеннуютолько на множестве событий.
То есть событиями мы будем называть не любые подмножества Ω, а лишь подмножества из некоторого«множества подмножеств» Ψ. При этомнеобходимо позаботиться, чтобы это множество Ψподмножеств Ω было «замкнуто»относительно введенных в параграфе 1.2 операций над событиями, то есть чтобыобъединение, пересечение, дополнение событий (то есть элементов Ψ) снова давало событие (то есть элемент Ψ).
Определение10. Множество Ψ,состоящее из подмножеств множества Ω,(не обязательно всех!) называется σ — алгеброй событий, или σ– алгеброй подмножеств Ω,если выполнены следующие условия:
(A1) Ω Î Ψ (σ -алгебра событий содержитдостоверное событие);
(A2) если />, то /> (вместе с любым событием σ-алгебра содержит противоположное событие);
(A3) если А1,А2… Î Ψ, то
/>
(вместе с любым конечным или счетным набором событий σ-алгебра содержит их объединение).
Условия (A1)–(A3) часто называют «аксиомами σ — алгебры».
Проверим, что этого набора аксиом достаточно для замкнутостимножества Ψ относительно другихопераций над событиями.
Вместо первой аксиомы достаточно предположить, что Ψне пусто, т.е. содержит хоть одинэлемент.
Свойство 1.Æ ÎΨ (σ -алгебра событийсодержит невозможное событие).
Доказательство.По (A1), Ω Î Ψ, но Æ = Ω/ Ω = ¬Ω Î Ψ в силу (A2).
Свойство 2.При выполнении (A1),(A2) свойство (A3) эквивалентносвойству (A4)
(A4) если А1,А2… Î Ψ, то
/>
(вместе с любым конечным или счетным набором событий σ-алгебра содержит их пересечение).
Доказательство.Докажем, что при выполнении (A1),(A2) из (A3) следует (A4).
Если А1, А2… Î Ψ, то привсех i= 1, 2,… по свойству (A2) выполнено/>
Тогда из (A3) следует, что
/>
и, по (A2), дополнение к этому множеству такжепринадлежит Ψ, то есть
/>
Но, в силу формул двойственности,
/>
Доказательство в обратную сторону выглядит совершенноаналогично.
Свойство 3.Если А, ВÎ Ψ, то А\ ВÎ Ψ
Пример 12.Пусть Ω = {1, 2, 3, 4, 5, 6}—пространство элементарных исходов (например, при бросании игрального кубика).Следующие наборы подмножеств Ωявляются σ -алгебрами (доказать!):
1. Ψ= { Ω ,Æ} ={ {1, 2,3, 4, 5, 6},Æ }— тривиальная σ -алгебра.
2. Ψ= { Ω ,Æ,{1},¬{1}} ={ {1, 2, 3, 4, 5, 6},Æ,{1},{2, 3, 4, 5, 6} }.
3. Ψ= { Ω ,A,¬A} ={ {1, 2, 3, 4, 5, 6},Æ, A,¬A}., где A — произвольное подмножество Ω (в предыдущем примере A={1} ).
Итак, мы определили специальный класс Ψ подмножеств пространства элементарныхисходов Ω, названный σ -алгеброй событий, причем применениесчетного числа любых операций (таких, как объединение, пересечение, дополнение)к множествам из Ψ снова даетмножество из Ψ (не выводит за рамкиэтого класса). Множества АÎ Ψ мы и назвали «событиями».
Определим теперь понятие «вероятности» как функции,определенной на множестве событий (то есть функции, которая каждому событиюставит в соответствие число). А чтобы читателю сразу стало понятно, о чемпойдет речь, добавим: вероятность мы определим как неотрицательнуюнормированную меру, заданную на σ-алгебре Ψ подмножеств Ω.3.2 Вероятность как нормированная мера
Определение11.
Пусть Ω —некоторое множество и Ψ — σ -алгебра его подмножеств. Функция μ: Ψ→ RU {∞}называется мерой на (Ω,Ψ), если онаудовлетворяет условиям:
(M1) Для любого множества А Î Ψ его мера неотрицательна: μ(А)≥ 0.
(M2) Для любого счетного набора попарнонепересекающихся множеств А1, А2… Î Ψ мера ихобъединения равна сумме их мер:/> />
 («счетная аддитивность» или «σ-аддитивность»). Иначе говоря, мера есть неотрицательная, счетно-аддитивнаяфункция множеств.
Определение12.
Пусть Ω —некоторое множество и Ψ — σ -алгебраего подмножеств. Мера μ: Ψ→ Rназываетсянормированной, если μ(Ω) = 1.Другое название нормированной меры — «вероятность» или «вероятностнаямера».
То же самое еще раз и подробно:
Определение13.
Пусть Ω —пространство элементарных исходов и Ψ— σ -алгебра его подмножеств(событий). Вероятностью или вероятностной мерой на (Ω, Ψ),называется функция P Ψ→ R, обладающая свойствами:
(P1) Для любого события А Î Ψ выполняется неравенство P(А)≥ 0;
(P2) Для любого счетного набора попарно несовместныхсобытий А1, А2… Î Ψ имеет месторавенство
/>

(P3) Вероятность достоверного события равна единице:P(Ω) = 1.
Свойства (P1)–(P3) часто называют «аксиомамивероятности».
Определение14.
Тройка (Ω, Ψ, Р), в которой Ω — пространство элементарных исходов,Ψ — σ-алгебра его подмножеств и P — вероятностнаямера на Ψ, называется вероятностнымпространством.
Выпишем свойства вероятности:
0.    />
1.    Длялюбого конечного набора попарно несовместимых событий А1, А2… Î Ψимеетместо равенство
/>
2.    />
3.    Если/>, то />
4.    Если/>, то />
5.    />
6.    />
7.    />
8.    />
9.    />(2)Раздел 4. Условная вероятность, независимость4.1 Условная вероятность
Пример 13.Кубик подбрасывается один раз. Известно, что выпало более трех очков. Каковапри этом вероятность того, что выпало четное число очков?
В данном случае пространство элементарных исходов состоит изтрех равновозможных элементарных исходов: Ω= {4, 5, 6}, и событию A= {выпало четное число очков}благоприятствуют 2 из них: A= {4, 6}. Поэтому P(A) = 2/3.
Посмотрим на этот вопрос с точки зрения первоначальногоэксперимента. Пространство элементарных исходов при одном подбрасывании кубикасостоит из шести точек: Ω = {1, 2, 3, 4,5, 6}. Слова «известно, что выпало более трех очков» означают, чтов эксперименте произошло событие B = {4, 5,6},. Слова «какова при этом вероятность того, что выпало четноечисло очков?» означают, что нас интересует, в какой доле случаев приосуществлении B происходит и А. Вероятность события А, вычисленную в предположении, что нечто орезультате эксперимента уже известно (событие Bпроизошло), мы будем обозначать через P(A/B)/> />
Мы хотим вычислить отношение числа исходов, благоприятствующих А внутри B(то есть благоприятствующих одновременно A иB), к числу исходов,благоприятствующих B./> />
Определение 15.Условной вероятностью события А,при условии, что произошло событие В,называется число
Будем считать, что условная вероятность определена только вслучае, когда P(В) > 0.
Следующее свойство называется «теоремойумножения»:
Теорема 6.P(A∩B) = P(B)P(A\B) = P(A)P(B\A),если соответствующие условные вероятности определены (то есть если P(В) > 0, P(A) > 0).
Теорема умножения для большего числа событий:
Теорема7. P(A1∩ A2 ∩…∩ An) = P(A1) P(A2\A1)P(A3 \A1 ∩A2)… P(An \A1∩…∩An-1)еслисоответствующие условные вероятности определены.4.2 Независимость
Определение16. События A иB называются независимыми, если P(A∩B) = P(A)P(B)
Пример 14.
1. Точка с координатами ξ,η бросается наудачу в квадрат со стороной 1. Доказать, что длялюбых х, у ÎR события A= {ξ x} иB={ η y} независимы./> />
2. Точка с координатами ξ, η бросается наудачу в треугольник с вершинами (1,0),(0,0) и (0,1). Доказать, что события A= { ξB={ η зависимы.
1. Рассмотрим х, у Î[0,1]). Видим, что P(A) = x, P(B)= y, P(A∩B)= xy, так что A= { ξи B= { ηнезависимы.
2. На рисунке видим, что P(A)= 3/4, P(B) = 3/4 P(A∩B)= 1/2ч≠  (3/4)2,так что события A= { ξ и B= { η зависимы.
Замечание8. Если события Aи B несовместны, то онинезависимы, если и только если P(A) = 0 или P(B)= 0
Следствие2. Если P(B) > 0, то события А и Внезависимы P(А\В) =Р(А)
Если P(А) > 0,то события А и В независимы P(В\А) =Р(В)
Лемма 1.Если события А и В независимы, то независимы и события />.
Определение17. События А1, А2…Аn называютсянезависимыми в совокупности, если для любого набора
1 ≤ i1,i2…ik ≤ n
/>)                                                                                       (3)
Замечание9. Если события А1, А2…Аn независимы всовокупности, то они попарно независимы, то есть любые два события Аi, Аj независимы. Достаточно в равенстве (3) взять k=2. Обратное, как показывает следующий пример, неверно.
Пример 15(Пример С. Н. Бернштейна).
Рассмотрим правильный тетраэдр, 3 грани которого окрашены,соответственно, в красный, синий, зеленый цвета, а четвертая грань содержит всетри цвета. Событие A, (B, C) означает, что выпала грань,содержащая красный (синий, зеленый) цвета.
Вероятность каждого из этих событий равна 1/2, так каккаждый цвет есть на двух гранях из четырех. Вероятность пересечения любых двухиз них равна 1/4, так как только одна грань содержит два цвета. А так как 1/4 =1/2 1/2, то все события попарно независимы.
Но вероятность пересечения всех трех тоже равна 1/4, а не1/8, то есть события не являются независимыми в совокупности.
Заметьте, что равенство (6) выполнено для k = 2, но не выполнено для k = 3.4.3 Формула полной вероятности
Пример 16.Есть 3 завода, производящих одну и ту же продукцию. При этом 1-й заводпроизводит 25%, 2-й завод — 35% и 3-й завод — 40% всей производимой продукции.Брак составляет 5% от продукции 1-го завода, 3% от продукции 2-го и 4% отпродукции 3-го завода. Вся продукция смешивается и поступает в продажу. Найтиа) вероятность купить бракованное изделие; б) условную вероятность того, чтокупленное изделие изготовлено 1-м заводом, если это изделие бракованное.
Первая вероятность равна доле бракованных изделий в объемевсей продукции, то есть
0,05*0,25 + 0,03*0,35 + 0,04*0,4.
Вторая вероятность равна доле брака 1-го завода среди всегобрака, то есть
Определение18. Набор попарно несовместных событий Н1, Н2… таких, что P(Аi)> 0 для всех i и
/>
называется полной группой событий или разбиениепространства Ω
События Н1, Н2 …, образующие полную группу событий, частоназывают гипотезами. При подходящем выборе гипотез для произвольногособытия А могут быть сравнительнопросто вычислены P(А/ Нi) (вероятность событию А произойти при выполнении «гипотезы» Нi) и собственно P(Нi)(вероятность выполнения «гипотезы» Нi).
Теорема 8(Формула полной вероятности).
Пусть Н1, Н2 — полная группа событий. Тогда вероятностьлюбого события A можетбыть вычислена по формуле:/> />
4.4 Формула Байеса
Теорема 9(Формула Байеса).
Пусть Н1, Н2 …— полная группа событий и A — некоторое событиеположительной вероятности. Тогда условная вероятность того, что имело местособытие Нk, если в результате экспериментанаблюдалось событие A,может быть вычислена по формуле:
/>

Пример 17.Вернемся к примеру 15. Изделие выбирается наудачу из всей произведеннойпродукции. Рассмотрим три гипотезы: Нi = {изделие изготовлено i-мзаводом }, i = 1, 2, 3.Вероятности этих событий даны: P(Н1)= 0,25, P(Н2) = 0,35, P(Н3) = 0,4. Пусть A = {изделие оказалось бракованным }. Данытакже условные вероятности P(A\Н1)= 0,05, P(A\Н2)= 0,03, P(A\Н3)= 0,04
Пример 18.Два стрелка подбрасывают монетку и выбирают, кто из них стреляет по мишени(одной пулей). Первый стрелок попадает по мишени с вероятностью 1, второйстрелок — с вероятностью 0,00001. Можно сделать двапредположения об эксперименте:
Н1 ={стреляет 1-й стрелок}
Н2 ={ стреляет 2-й стрелок }.
Априорные (a’priori —«до опыта») вероятности этих гипотезодинаковы: P(Н1) = P(Н1) = 1/2.
Рассмотрим событие A = {пуляпопала в мишень}. Известно, что
P(A\Н1)= 1, P(A\Н2)= 0,00001/> />
Поэтому вероятность пуле попасть в мишень P(A)=  1/2*1 + 1/2*0,00001… Предположим, что событие A  произошло. Какова теперь апостериорная (a’posteriori —«после опыта») вероятность каждой из гипотез Нi? Очевидно, что первая из этих гипотез много вероятнее второй (аименно, в 100000 раз). Действительно,Раздел 5. Схема Бернулли5.1 Распределение числа успехов в nиспытаниях
Определение19. Схемой Бернулли называется последовательность независимыхиспытаний, в каждом из которых возможны лишь два исхода — «успех» и «неудача»,при этом «успех» в одном испытании происходит с вероятность р Î[0,1],«неудача» — с вероятностью q= 1 — p.
Теорема 10(Формула Бернулли)./> />
Обозначим через vnчисло успехов в nиспытаниях схемы Бернулли. Тогда для любого k= 0, 1,…n/> />
Доказательство.Событие A ={vn = k}означает, что в nиспытаниях схемы Бернулли произошло ровноk успехов. Рассмотрим один изблагоприятствующих событию A  элементарных исходов:
Здесь буквами «у» и «н» обозначены, соответственно, успешныйи неудачный результаты испытаний. Поскольку испытания независимы, вероятностьтакого элементарного исхода (первые kиспытаний завершились успехом, остальные неудачей) равна pk(1 — p)n-k.
Другие благоприятствующие событию A элементарные исходы отличаются отрассмотренного выше лишь расположением k успехов на nместах. Есть ровно/> способоврасположить k успеховна n местах. Поэтомусобытие A состоит из /> элементарных исходов,вероятность каждого из которых равна pk(1 — p)n-k./> />
Определение 20.Набор чисел /> />
называется биноминальным распределением вероятностей  и обозначается Вnp или B(n,p).
Теорема 11Пусть m1, m2 целые числа,£m1£m£ m2 £n Обозначим через Рn(m1,m2)вероятность того, что событие А наступилоне менее m1 ине более m2 раз в nиспытаниях. Тогда
/>5.2 Наиболее вероятное число успехов
По формуле Бернулли, событие «произошло 0 успехов в n испытаниях» имеет вероятность qn, 1 успех —вероятность npqnи т.д. Какое же число успехов наиболее вероятно? Иначе говоря, при какомk достигается максимум P(vn=k)?/> />
Чтобы выяснить это, сравним отношение P(vn=k)и P(vn=k-1)сединицей.
Видим, что
(a) Р(vn= k) > Р(vn= k-1) при np + p – k > 0, то есть при k ;
(b) Р(vn= k) vn= k-1 )при np + p – k , то есть при k > np + p;
(c) Р(vn= k) = Р(vn= k-1 при np + p – k = 0, что возможно лишь если np + p — целое число.
Рассмотрим два случая: np+ p –целое число и  np + p – дробноечисло. В первом случае пусть k= np + p. Из полученных выше неравенств,сразу следует, что
/>
/> />
Во втором случае пусть k= [np + p] (целая часть числа np + p, то есть наибольшее целое число, непревосходящее np + p). Изнеравенств (a), (b) следует, что
Действительно, неравенство Р(vn= k) > Р(vn= k+1),например, следует из (b), примененного для
k = k0+1> np + p.
Видим, что в зависимости от того, является число 1 > np+ p целым или нет, имеется либодва равновероятных «наиболее вероятных» числа успехов k= np+ p и k–1 > np+ p — 1, либо одно «наиболее вероятное» число успехов k= [np + p].
Сформулируем уже доказанное утверждение в виде теоремы.
Теорема 12.В n испытаниях схемыБернулли с вероятностью успеха pнаиболее вероятным числом успехов является
a) единственное число k= [np +p], если число np + p нецелое;
б) два числа k= np + p и k-1= np + p -1, если число np + p целое.
Пример 19.Если p= q= 1/2, то причетном числе испытаний nчисло np+ p= n/2+ 1 /2— не целое, так что наиболее вероятным является единственноечисло успехов [n/2 + 1/2]= n/2.Что совершенно понятно, так как есть нечетное число возможностей — получить 0, 1, …n успехов, причем вероятности получить k и n-kуспехов одинаковы.
При нечетном же числе испытаний n число np+ p= n/2 + 1 /2  — целое, так что наиболеевероятными (и одинаково вероятными) являются два числа успехов n/2+ 1 /2 и n/2 — 1 /2.5.3 Номер первого успешного испытания
Рассмотрим схему Бернулли с вероятностью успеха p в одном испытании. Испытания проводятся до появленияпервого успеха. Введем величину τ,  равную номеру первогоуспешного испытания.
Теорема 13.Вероятность того, что первый успех произойдет в испытании с номером k, равна
P(τ= k) = p qk-1./> />
Доказательство.Действительно,
Определение21. Набор чисел {pqk-1 }называется геометрическим распределением вероятностей и обозначаетсяGp или G(p).
Геометрическое распределение вероятностей обладаетинтересным свойством, которое можно назвать свойством «нестарения». Пустьвеличина τ обозначает,скажем, время безотказной работы (измеряемое целым числом часов) некоторогоустройства. Предположим, что для величины τ вероятность принять любое свое значение k в точности равна pqk-1. Справедливо следующееутверждение.
Теорема 14.Пусть P(τ  = k) = pqk-1. Тогда для произвольных n,k³
P(τ  > n+k\τ  > n) = P(τ > k)
Данному равенству можно придать следующее звучание: еслиизвестно, что устройство проработало без отказов nчасов, то вероятность ему работать еще не менее kчасов точно такая же, как вероятность проработать не менее k часов для нового устройства.
Можно прочесть эту формулу и так: вероятность работающемуустройству проработать еще сколько-то часов не зависит от того момента, когдамы начали отсчет времени, или от того, сколько уже работает устройство.
Доказательство.По определению условной вероятности,
/>                                                                   (4)
Последнее равенство следует из того, что событие {τ  > n+k}влечет событие {τ  > n}, так что пересечение этих событий есть {τ  > n+k}.Найдем для произвольного m³0 вероятность P(τ > m).
/>

Можно также заметить, что событие {τ  > m}означает, что в схеме Бернулли первые m испытаний завершились «неудачами», а это событие имеетвероятность как раз qm.
Возвращаясь к (4), получим
/>
5.4 Приближение гипергеометрического распределения биномиальным
Рассмотрим урну, содержащую N шаров, из которых K шаров — белые, а оставшиеся N-K шаров — черные. Из урнынаудачу (без возвращения) выбираются n шаров. Вероятность  PN,K(n, k) того, чтобудет выбрано ровно k белых и n-k черных шаров,находится по формуле (см. определение 8 гипергеометрического распределениявероятностей):/> />
Если число шаров в урне очень велико, то извлечение одного, двух, трех шаровпочти не меняет пропорцию белых и черных шаров в урне, так что вероятности PN,K(n,k) не очень отличаются от вероятностей впроцедуре выбора с возвращением/> />
P(получить ровно kбелых шаров при выборе nшаров с возвращением) =
Сформулируем нашу первую предельную теорему./> />
Теорема 15. Если N→ ∞ и K→ ∞ так, что K/N→ pÎ(0, 1)  то для любых фиксированных n,0kn5.5 Независимые испытания с несколькими исходами
Рассмотрим следующий пример, когда из двух очень похожихвопросов на один можно ответить, пользуясь формулой Бернулли, а для другогоэтой формулы оказывается недостаточно:
Пример20. Игральнаякость подбрасывается 15 раз. Найти вероятности следующих событий:
а) выпадет ровно 10 шестерок; б) выпадет ровно 10 шестерок итри единицы.
а) есть 15 испытаний схемы Бернулли с вероятностьюуспеха 1/6 (выпадение шестерки). Вероятность десяти успехов в 15 испытанияхравна
 />
б) здесь каждое испытание имеет три, а не два исхода:выпадение шестерки, выпадение единицы, выпадение остальных граней.Воспользоваться формулой для числа успехов в схеме Бернулли не удается — переднами уже не схема Бернулли.
Осталось изобрести формулу для подсчета вероятности каждомуисходу в нескольких независимых испытаниях выпасть нужное число раз, если водном испытании возможно не два, а более исходов.
Пусть в одном испытании возможны m исходов. Обозначим их цифрами 1, 2, …m. Пусть исход i в одном испытании случается с вероятностью рi, 1 ≤ i≤ m  и
/>
Обозначим через Р(n1,n2,…,nm) вероятность того, что в n= n1+ n2+ …+nm независимых испытанийисход 1 появился n1, раз, исход 2 – n2 раз,…
Теорема 16.Для любого n и любыхцелых n1≥ …nm ≥ таких, что n1+ n2+ …+nm = n,верна формула:
/>
Доказательство.Рассмотрим один элементарный исход, благоприятствующий выпадению n1 единиц, n2 двоек, …, nm  раз m-ок:
/>
Это результат nэкспериментов, когда все нужные исходы появились в некотором заранее заданномпорядке. Вероятность такого результата n независимых испытаний равна
/>
Все остальные благоприятные исходы отличаются лишьрасположением чисел 1, 2, …m на n местах. Число таких исходов равно числуспособов расставить на nместах n1 единиц,n2 двоек,, …, nm  раз чисел m, то есть
/>
Теперь мы можем вернуться к примеру 20(б) и выписать ответ:так как вероятности выпадения шестерки и единицы равны 1/6, а вероятностьтретьего исхода (выпали любые другие грани) равна 4/6, то вероятность получить10 шестерок, 3 единицы и еще 2 других очка равна
/>5.6 Теорема Пуассона для схемы Бернулли
Предположим, нам нужна вероятность получить не менее десятиуспехов в 1000 испытаний схемы Бернулли с вероятностью успеха 0.003.Вероятность этого события равна любому из следующих выражений:
/>
и вычисление даже одного слагаемого в каждом из этихвыражений весьма проблематично.
Сформулируем теорему о приближенном вычислении вероятностикакого-либо числа успехов в большом числе испытаний схемы Бернулли с маленькойвероятностью успеха. Термин «большое число» должен означать n→ ∞. Если при этом p= pn→ 0, то, очевидно, вероятность получитьлюбое конечное число успехов при растущем числе испытаний стремится к нулю.Необходимо чтобы вероятность успеха p= pn→ 0одновременно с ростом числа испытаний. Но от испытания к испытанию вероятностьуспеха меняться не может (см. определение схемы Бернулли).
Поэтому рассмотрим «схему серий»: есть
одно испытание ○                свероятностью успеха p1
два испытания ○,○            с вероятностью успеха p2

nиспытаний ○, …, ○         с вероятностью успеха pn

Вероятность успеха меняется не внутри одной сериииспытаний, а от серии к серии, когда меняется общее число испытаний. Обозначимчерезvnчисло успехов вn-той серии испытаний.
Теорема 17(Теорема Пуассона).
Пусть n→ ∞, pn→0 так, что npn→λ> 0. Тогда для любого k≥ 0 вероятность получитьk успехов в nиспытаниях схемы Бернулли с вероятностьюуспеха pnстремится к величине
/>                                                                                                                                                                                     (5)
/>дляn→ ∞, pn→0 так, что npn→λ
Определение22. Пусть λ> 0— некоторая постоянная. Набор чисел /> называется распределениемПуассона с параметром λ.
Пользуясь теоремой 17, можно приближенно посчитатьвероятность получить не менее десяти успехов в 1000 испытаний схемы Бернулли свероятностью успеха 0.003, с вычисления которой мы начали. Поскольку n = 1000 «велико», а pn = 0.003 «мало»,то, взяв λ = npn= 3 , можно написать приближенное равенство
/>(6)
Осталось решить, а достаточно ли n=103 «велико», а pn =0.003 «мало», чтобы заменить точную вероятность P(vn= k) наприближенное значение
/>
Для этого нужно уметь оценивать разницу между этими двумявероятностями.
Теорема 18(Теорема Пуассона с оценкой погрешности).
Пусть AÍ{0, 1, …, n} — произвольное множество целых неотрицательных чисел, vn — число успехов в n испытаниях схемы Бернулли с вероятностью успеха p,λ= np. Тогда
/>
Таким образом, теорема 18 предоставляет нам возможностьсамим решать, достаточно ли n «велико», а p «мало», руководствуясь полученной величинойпогрешности.
Какова же погрешность в формуле (6)?
/>
Погрешность не более 0,009 (при вероятности около 0,001). Вовсяком случае, можно утверждать, что искомая вероятность никак не больше, чем0,01=0,001+0,009.
Рассмотрим еще одну формулу приближенного вычисления pn (m)когда n велико. Вотличии от предыдущего результата число успехов m вэтом случае тоже растет с ростом n, а вероятностьуспеха постоянна.
Локальнаятеорема Муавра – Лапласа
Пусть />.Предположим,что />и величины />являются ограниченными.Тогда
/>
В частности, если />, то
/>
Доказательство:
В силу ограниченности величин /> разность/>вместе с n и mВоспользуемся формулой Стирлинга
/>
/>
В силу определения />
/>Раздел 6. Случайные величины и их распределения6.1 Случайные величины
Мы уже видели, что для очень многих экспериментов нетникаких различий в подсчете вероятностей событий, тогда как элементарныеисходы в этих экспериментах очень различаются. Но нас и должны интересоватьименно вероятности событий, а не структура пространства элементарных исходов.Поэтому пора во всех таких «похожих» экспериментах вместо самых разныхэлементарных исходов использовать, например, числа. То есть ввести соответствие(иначе говоря, отображение) между элементарными исходами и вещественнымичислами (с ними удобно работать).
Пусть имеется случайный эксперимент и задано вероятностноепространство (Ω, Ψ, Р).
Определение23. Функция ξ: Ω →R называется случайной величиной,если для любого х ÎRмножество { ξ x}= {ω: ξ(ω) x} является событием, то есть принадлежит σ-алгебре событий Ψ.
Замечание10. Можно смело считать, что любое множество элементарных исходовесть событие, и, следовательно, случайная величина есть произвольнаяфункция из Ω в R. Никаких неприятностей напрактике это обычно не влечет.
Определение24. Будем говорить, что функция ξ: Ω→Rявляется Ψ -измеримой,если {ω: ξ(ω) x}принадлежит Ψ для любого х Î R.
Итак, случайная величина есть Ψ — измеримая функция, ставящая всоответствие каждому элементарному исходу ω ÎΩ число ξ(ω) ÎR.
Пример 21.Подбрасываем 1 раз кубик. Пусть Ω = {1,2, 3, 4, 5, 6}, и две функции из Ωв заданы так: ξ(ω)= ω,η(ω)= ω2.
Если Ψ есть множество всех подмножеств Ω, то ξи η являются случайнымивеличинами, поскольку любое множество элементарных исходов принадлежит Ψ, в том числе и {ω: ξ(ω)   или {ω: η (ω)  . Можнозаписать соответствие между значениями случайных величин ξ и η вероятностями принимать эти значения в виде «таблицы распределениявероятностей» или, коротко, «таблицы распределения»:
ξ
1
2
3
4
5
6
Р 1/6 1/6 1/6 1/6 1/6 1/6
η
1
4
9
16
25
36
Р 1/6 1/6 1/6 1/6 1/6 1/6
Здесь 1/6 = Р(ξ=1)=…= Р(ξ=6) = Р(η=1)= …= Р(η=36)
Пусть σ-алгебра событий Ψсостоит всего из четырех множеств:
Ψ= { Ω ,Æ, {1,3,5},{2,4,6} }
то есть событием является, кроме достоверного и невозможногособытий, выпадение четного (соответственно, нечетного) числа очков. Убедимся,что при такой «бедной» σ-алгебре ни ξ, ни η не являются случайными величинами, так как этифункции не Ψ — измеримы.Возьмем (например) x =3,967. Видим, что
{ωÎΩ: ξ(ω) Ï Ψи{ωÎΩ: η(ω) ÏΨ
Теперь попробуем понять, зачем нужна Ψ — измеримость и почему требуется, чтобы {ω: ξ(ω) x} являлось событием.
Если задана случайная величина ξ, нам может потребоваться вычислитьвероятности типа
P(ξ= 5) =  P{ω: ξ(ω) = 5},
P (ξ Î[-3,7]),
P(ξ ³3,2),
P(ξ> 0)
(и вообще самые разные вероятности попадания в различныемножества на прямой). Это возможно только если множества, стоящие под знакомвероятности, являются событиями (напомню, что вероятность есть функция из σ — алгебры событий в[0,1]).
Но если потребовать, чтобы Ax= {ω: ξ(ω) x}было событием при любом x,то мы из свойств σ — алгебры сразу получим, что
и />— событие, и />— событие,
и />—событие,
и {ω: ξ(ω) = x}= Bx \Ax — событие,                                                                                                                          (7)
и т.д., и т.п. (операции пересечения, объединения,дополнения событий не выводят из класса событий).
Можно потребовать в определении 23 чего-нибудь другого.Например, чтобы событием было попадание в любой интервал: (ω: ξ(ω) Î[a, b])для любых ab.
Или чтобы {ω: ξ(ω) ³x} было событием для любого x. Любое такое определениеэквивалентно исходному.
Опишем различные типы распределений случайных величин. Под распределениемслучайной величины мы будем понимать соответствие
«значениеслучайной величины ↔ вероятность принимать это значение»,
либо (чаще)
«множествона прямой ↔ вероятность случайной величине попасть в это множество».6.2 Дискретные распределения
Определение25. Говорят, что случайная величина ξ имеет дискретноераспределение, если существует конечный или счетный набор чисел {a1, a2, …}такой, что:
а) pi= P{ξ= ai} > 0для всехi;
б)/>.
То есть случайная величина ξимеет дискретное распределение, если она принимает не болеечем счетное число значений.
Определение26. Если случайная величина ξ имеет дискретное распределение, назовем таблицейраспределения соответствие ai↔ pi, которое чаще всего рисуюттак:
ξ
а1
а2
а3

Р
р1
р2
р3 … 6.3 Примеры дискретных распределенийВырожденное распределение.
Говорят, что случайная величина ξ имеет вырожденное распределение с параметрома, и пишут ξÎIa если ξ принимает единственное значение ас вероятностью 1, то есть P(ξ= a) = 1. Таблица распределения ξ имеет вид
ξ
а
Р
1 Распределение Бернулли.
Говорят, что случайная величина ξ имеет распределение Бернулли спараметром р, и пишут ξÎВр, если ξ принимает значения 1 и 0 свероятностями р и 1 — р, соответственно. Случайная величина ξ с таким распределением равна числу успеховв одном испытании схемы Бернулли с вероятностью успеха (0 успехов или 1успех). Таблица распределения ξ имеет вид
ξ
1
Р
(1-p)
р Биномиальное распределение.
Говорят, что случайная величина ξ имеет биномиальное распределение спараметрами n и p, где 0 £p£, n и пишут ξÎВn,р,если ξ принимает значения 0, 1, …,n с вероятностями P(ξ  = k) = Cnkpk(1-p)n-k. Случайная величина ξ с таким распределением имеет смысл числауспехов в n испытанияхсхемы Бернулли с вероятностью успеха р.
Таблица распределения ξимеет вид
ξ
1 …
k …
n
Р
(1-p)n
n p(1-p)n-1 …
Cnk pk (1-p)n-k …
Pn Геометрическое распределение.
Говорят, что случайная величина τ имеет геометрическое распределение с параметром р, где 0 £p £, n,и пишут τ ÎGр,если τ принимает значения 1, 2, 3, …с вероятностями P(τ = k) = p(1-p)k-1. Случайная величина τ с таким распределением имеет смысл номерапервого успешного испытания в схеме Бернулли с вероятностью успеха р .
Таблица распределения τ имеет вид
τ
1
2 …
k …
Р
p
Р (1 – р) …
p (1-p)k-1 … Распределение Пуассона.
Говорят, что случайная величина ξ имеет распределение Пуассона спараметром λ, где λ > 0 , и ξÎПλ,если ξ принимает значения 0, 1, 2 … с вероятностями
/>
Таблица распределения ξ имеет вид
ξ
1
2 …
k …
Р
е- λ
λ е — λ …
(λk/k!)е — λ … Гипергеометрическое распределение.
Говорят, что случайная величина ξ имеет гипергеометрическое распределение с параметрами n, N и K, K£N,   n£N если ξ принимает целые значения от max(0, N— K– n) до min(K,n) с вероятностями
/>
. Случайная величина ξ с таким распределением имеет смысл числа белыхшаров среди n шароввыбранных наудачу и без возвращения из урны, содержащей К белых шаров и N-K не белых.
Заметьте, что со всеми этими распределениями мы уже хорошознакомы.
Но распределения случайных величин далеко не исчерпываютсядискретными распределениями. Так, например, если точка бросается наудачу наотрезок [0,1], то можно задать случайную величину, равную координате этойточки. Но число значений этой случайной величины несчетно, так что еераспределение дискретным не является. Да и вероятность этой случайной величинепринять каждое из своих возможных значений (попасть в точку) равна нулю. Такчто не только таблица распределения не существует, но и соответствие «значениевеличины « вероятность его принять»ничего не говорит о распределении случайной величины.
Какими же характеристиками еще можно описать распределение?Раздел 7. Функция распределения
Заметим, что на том же отрезке [0, 1] вероятности попадания в множества положительной мерысовсем не нулевые. И термин «наудачу» мы когда-то описывали как раз в терминахвероятностей попадания в множество. Может быть, разумно описать распределениеслучайной величины, задав для любого множества, вероятность принять значения изэтого множества? Это действительно полное описание распределения, но уж оченьтрудно с ней работать — слишком много множеств на прямой.
Нельзя ли обойтись заданием вероятностей попадания вкакой-нибудь меньший набор множеств на прямой? Оказывается, что можноограничиться только вероятностями попадания в интервалы (-¥, х)для всех х Î R,с помощью которых можно будет определить и вероятность попасть в любое другоемножество.
Замечание11. Можно с таким же успехом ограничиться набором вероятностейпопадания в интервалы (-¥, х], или в (х,¥), или в [х,¥), или в (х1,x2).Впрочем, последних уже слишком много.
Определение27.Функцией распределения  случайной величины ξназывается функция Fξ(x): R®[0, 1], при каждом xÎ Rравная Fξ(x) = P(ξx)=  P{ω: ξ(ω) x}
Пример 22.Случайная величина ξимеет вырожденное распределение Ic. Тогда
/>/> 
Пример 23.Случайная величина ξимеет распределение Бернулли Вр. Тогда
/>/>
Пример 24.Будем говорить, что случайная величина ξимеетравномерное распределение на отрезке [a,b] и писать ξ Î Ua,b (“ uniform”), если ξ — координата точки, брошенной наудачу на отрезок [a, b]  числовойпрямой. Это распределение можно задать и с помощью функции распределения:
/>/>7.1 Свойства функции распределения
Теорема19.
Функция распределения Fξ(x) обладает следующими свойствами:
F1) Функция распределения Fξ(x)  не убывает: если х1 x2то Fξ(x1)Fξ(x2);
F2) Существуют пределы
/>     и       />
F3) Функция распределения Fξ(x)  непрерывна слева:
/>
Теорема 20.Если функция F: R®[0, 1]удовлетворяет свойствам (F1)–(F3), то Fесть функция распределения некоторой случайной величины ξ, то есть найдется вероятностноепространство (Ω, Ψ, Р) ислучайная величина ξ на этомпространстве, что F(х) = Fξ(x).Прочие полезные свойства функций распределения
F4) В любой точке х0 разница Fξ(х0+0)- Fξ(х0)равна P(ξ= х0):
Следствие3. Если функция распределения Fξ(x)непрерывна в точке х0,то P(ξ= х0) = 0
F5) Для любой случайной величины ξ имеет место равенство P(а£ξb) = Fξ(a)- Fξ(b).
Если же функция распределения Fξ(x) непрерывна (для любого x, или только в точках a и b), то
P(а£ξb) = P(а ξb) = P(а £ξ£b)= P(а ξ£  b)= Fξ(a) — Fξ(b)Функция распределения дискретного распределения
Мы уже видели, как выглядят функции распределения некоторыхдискретных распределений. Из свойств (F4), (F5) следует
Свойство 4.Случайная величина ξ имеет дискретное распределениетогда и только тогда, когда функция распределения Fξ— ступенчатая функция. При этом возможныезначения ξ— точки aiскачков Fξ, и
pi= P(ξ= ai) = Fξ(ai+ 0) — Fξ(ai)—величины скачков.
В следующей главе мы рассмотрим случайные величины, функциираспределения которых не удовлетворяют свойству 4 хотя бы потому, что они вовсене имеют разрывов. Более того, мы выделим класс функций распределения, которые«восстанавливаются по своей производной» с помощью интегрирования (такназываемые абсолютно непрерывные функции).Раздел 8. Абсолютно непрерывные распределения
Определение28.Случайная величина ξимеет называемые абсолютно непрерывное распределение, если существует неотрицательнаяфункция fξ(x) такая, что для любого х Î R функция распределения Fξ(x) представима в виде
/>
При этом функция fξ(x) называется плотностью распределенияслучайной величины ξ.
Теорема 21.Плотностьраспределения обладает свойствами:
(f1) fξ(x)³ для любого x;
(f2) />
Эти два свойства полностью характеризуют класс плотностей:
Лемма 2.Если функция fобладает свойствами (f1)и (f2), то существует вероятностное пространство и случайная величина ξ на нем, для которой  fявляется плотностью распределения.
Доказательство.Пусть Ω есть область, заключеннаямежду осью абсцисс и графиком функции f (« подграфик» функции  f). Площадь области Ω равна 1 по свойству (f2). И пусть случайнаявеличина ξ естьабсцисса точки, наудачу брошенной в эту область.
Тогда (вспомнить геометрическую вероятность) длялюбого х Î R
/>/> />
то есть f являетсяплотностью распределения случайной величины ξСвойства плотностей
(f3) Если случайная величина ξ имеет абсолютно непрерывноераспределение, то ее функция распределения всюду непрерывна.
Следствие4. Если случайная величина ξ имеет абсолютно непрерывное распределение, то P(ξ= х) = 0 длялюбого х Î R.
(f4) Если случайная величина ξ имеет абсолютно непрерывноераспределение, то ее функция распределения дифференцируема почти всюду, и
/>
для почти всех х.
Замечание12. Термин для «почти всех» означает «для всех, кроме (возможно) х изнекоторого множества нулевой меры (длины)». Заметьте, что стоящую подинтегралом функцию можно изменить в одной точке (или на множестве нулевойдлины), и интеграл (« площадь подграфика») от этого не изменится.
(f5) Если случайная величина ξ имеет абсолютно непрерывное распределение,то
/>
Доказательство. Действительно,
/>
Остальные равенства вытекают из следствия 5.8.1 Примеры абсолютно непрерывных распределений
Равномерное.
Это распределение нам уже знакомо. Говорят, что ξ имеет равномерноераспределение на отрезке [a,b], и пишут ξ Î Ua,b если
/>
Заметьте, что в точках a и bфункция распределения недифференцируема, и плотность можно задать как угодно.
Показательное.
 Говорят, что ξимеет показательное распределение с параметром α, α> 0  и ξ Î Еα, если
/>
Показательное распределение является единственным абсолютнонепрерывным распределением, для которого выполнено свойство «не старения» (и вэтом смысле оно является непрерывным аналогом дискретного геометрическогораспределения).
Теорема 21.Свойство «Не старения». Пусть ξ Î Еα. Тогда для любых х, у > 0
/>
Нормальное.
/>Говорят, что ξ имеет нормальноераспределение с параметрами а и σ2, где а Î R,σ > 0, и пишут ξ Î  если ξ имеет следующую плотность распределения:
/>длялюбого x Î R
Убедимся, что fξ(x)действительно является плотностьюраспределения. Так как fξ(x) > 0для всех x Î R, то свойство (f1)выполнено. Проверим выполнение (f2). Используем табличный интеграл (интегралПуассона)
/>
Нормальное (иначе называемое гауссовским по имени КарлаГаусса распределение играет исключительно важную роль в теории вероятностей,поэтому мы очень подробно изучим все свойства этого распределения.8.2 Свойства нормального распределения
Нормальное распределение задается, как мы видим, с помощьюплотности распределения. Связано это с тем, что нельзя выписать первообразнуюот функции/> иначе как в виде интеграла,поэтому функцию распределения этого закона можно записать лишь в таком виде:
/>
/>Мы часто будемиспользовать обозначение для функции распределения нормального распределения спараметрами а и σ2.Стандартное нормальное распределение
Нормальное распределение при /> а = 0 и σ=1 называется стандартным нормальным распределением. Плотностьстандартного нормального распределения имеет вид
/>длялюбого x Î R
 а функция распределения
/>
табулирована (то есть ее значения вычислены при многих х) почти во всех математическихсправочниках. Установим связь между
/>
Свойство 5.Для любого x Î R справедливо соотношение
/>
То же самое на языке случайных величин можно сформулироватьтак:
/>Следствие 5. Если /> то
Следствие6. Если /> то
/>
Как мы видим, вычисление любых вероятностей для нормальнораспределенной случайной величины сводится к вычислению функции распределения Ф0,1.Ее свойства
Свойство 6.Ф0,1(0)= 0,5
Свойство 7.Ф0,1(-х)= 1 — Ф0,1(х)
Свойство 8.Если ξ Î N0,1, то
/>
Свойство 9(« Правило трех сигм»).
Если />то/>
Смысла в запоминании числа 0.0027 нет никакого, а вот помнить,что почти вся масса нормального распределения сосредоточена в границах [a— 3σ, a — 3σ] всегда полезно.
Смысла в запоминании числа 0.0027 нет никакого, а вотпомнить, что почти вся масса нормального распределения сосредоточена в границах[a-3σ, a+3σ], всегдаполезно.Раздел 9. Случайные вектора и их распределения
Определение29. Если случайные величины /> заданына одном вероятностном пространстве, то вектор (/>)мы будем называть случайным вектором.
Определение30. Функция /> называетсяфункцией распределения случайного вектора (/>)или функцией совместного распределения случайных величин />.9.1 Свойства функции совместного распределения
Для простоты обозначений все дальнейшие рассуждения иформулировки приводятся в случае n= 2 для случайного вектора (/>)
F0) />
F1) /> неубывает по каждой координате вектора (x1 x2).
F2) Для любого i= 1, 2,существуют
/>
/>
При этом
/>
F3) Функция />  покаждой координате вектора (x1x2)непрерывна слева.
Только теперь этих свойств оказывается недостаточно дляописания класса функций совместного распределения. Иначе говоря, выполнениеэтих свойств для некоторой функции F: R2 ® R вовсене гарантирует, что эта функция является функцией распределения некоторогослучайного вектора.
Пример 25.Функция
/>/>
a) удовлетворяет всем свойствам (F0)-(F3);
б) не является функцией распределения никакого вектора (ξ1, ξ2.) хотя бы потому, что, найдисьтакой вектор, найдется и прямоугольник [a1b1] x [a2b2],вероятность попасть в который (вычисленная с помощью этой «функциираспределения») отрицательна:
P(a1£ξ1£ξ2
Как же связана вероятность вектору попасть в прямоугольник сфункцией распределения этого вектора?
Упражнение.Доказать, что
P(a1£ξ1b1, a2£ξ2b2)= Fξ1 ξ2 (b1, b2) — Fξ1 ξ2 (a1, b2) — Fξ1 ξ2 (b1, a2) + Fξ1 ξ2 (a1, a2)         (8)
Оказывается, если потребовать дополнительно от функции F, чтобы для всякого [a1b1] x [a2b2]вероятность P(a1£ξ1b1], [a2£ξ2b2],связанная с функцией F равенством (8), быланеотрицательна, то любая функция, обладающая этим свойством и свойствами (F0)-(F3),уже будет функцией распределения некоторого случайного вектора.9.2 Типы многомерных распределений
Ограничимся рассмотрением только двух случаев, когдасовместное распределение координат случайного вектора (ξ1, ξ2.) либо дискретно, либо абсолютнонепрерывно.Дискретное совместное распределение
Определение31. Говорят, что случайные величины ξ1, ξ2. имеют дискретное, совместное распределение, если существует конечный или счетный набор { ai, bi }такой, что
/>
Таблицу, на пересечении i-й строки и j-го столбца которой (или наоборот) стоитчисло
P(ξ1= ai ,ξ2= bj) называют таблицей совместногораспределения случайных величин ξ1,.ξ2
Замечание13. Напомню, что таблицы распределения каждой из случайных величин ξ1, ξ2 в отдельности (таблицы частных, илимаргинальных распределений) восстанавливаются по таблице совместногораспределения с помощью очевидных формул:
/>
Если эти формулы вам не представляются очевидными, необходимовернуться к разделу 4 и перечитать определение 18 полной группысобытий, обратив также внимание на доказательство теоремы 8 (формулыполной вероятности).Абсолютно непрерывное совместное распределение
Определение32. Говорят, что с.в. ξ1, ξ2 (заданные на одном вероятностномпространстве) имеют абсолютно непрерывное совместное распределение, еслисуществует функция /> такая,что для любой точки (x1, x2) Î R2
/>
Если такая функция /> существует,она называется плотностью совместного распределения случайных величин ξ1, ξ2.
Замечание14. Для всего дальнейшего более чем достаточно считать, что
/>
равняется объему под графиком функции f над областью интегрирования —прямоугольником [a1,b1] x [a2,b2].
Плотность совместного распределения обладает свойствами,аналогичными свойствам плотности распределения одной случайной величины:
(f1) />длялюбых x1, x2 Î R;
(f2) />.
Более того, любая функция, обладающая этими свойствами,является плотностью некоторого совместного распределения.
Если совместное распределение абсолютно непрерывно, то пофункции совместного распределения его плотность находится как смешанная частнаяпроизводная:
(f3) />.
Из свойства (F2) функции совместногораспределения вытекает следующее утверждение. Для n> 2это утверждение, как и свойство (F2), выглядит существенно иначе!
Теорема 22.Если случайные величины ξ1, ξ2   имеют абсолютно непрерывноесовместное распределение с плотностью f(x1, x2), то ξ1, и ξ2в отдельности также имеют абсолютно непрерывное распределение с плотностями:
/>9.3 Независимость случайных величин
Определение33. Случайные величины ξ1, ξ2, …,ξn независимы, если для любого набора множеств В1 Í R, … Вn Í R  имеет место равенство:
/>
Это определение можно сформулировать в терминах функцийраспределения:
Определение34. Случайные величины ξ1, ξ2, …,ξn независимы, если для любых х1, х2,…, хnимеет место равенство:
/>
Определение35. Случайные величины ξ1, ξ2, …,ξnс дискретным распределением независимы, если для любых а1,а2, …, аn имеет место равенство:
/>
Для случайных величин с абсолютно непрерывным совместнымраспределением определение независимости можно сформулировать так:
Определение36. Случайные величины ξ1, ξ2, …,ξnс абсолютно непрерывным совместным распределением независимы, еслиплотность совместного распределения равна произведению плотностей случайных ξ1, ξ2, …,ξn,то есть для любых х1, х2, …, хn имеет место равенство:
/>Раздел 10. Преобразования случайных величин10.1 Преобразование одной случайной величины
Мы будем рассматривать только преобразования случайныхвеличин с абсолютно непрерывными распределениями. Пусть с. в. ξ имеет функциюраспределения Fξ(x) и плотность распределения fξ(x). Построим с помощью функции g:R® Rслучайную величину η=g(ξ). Требуется найти функцию распределения и, если существует,плотность распределения η.
Замечание15. Плотность распределения случайной величины η=g(ξ) существует далеко не при любых функциях g. Так, если функция g кусочно-постоянна, то с. в. η имеетдискретное распределение, и плотность ее распределения не существует.
Плотность распределения g(ξ) заведомо существует, если, например, функция g(ξ) монотонна («строго монотонна»). Вспомним, что означает«найти плотность распределения η, если онасуществует».Поопределению, если мы представим (для любого х)функцию распределения η в виде /> гдеподинтегральная функция h(y) неотрицательна, то плотностьраспределения с.в. η  существует и в точности равнаподинтегральной функции fξ(x) = h(x).   
Так что доказывать существование плотности распределения инаходить ее мы будем одновременно, находя нужное интегральное представление дляфункции распределения.
Теорема 23.Пусть ξ имеет функцию распределения Fξ(x) и плотность распределения fξ(x) , и постоянная a отлична от нуля. Тогда случайная величинаη = aξ  + b имеет плотность распределения
/>
Для произвольной монотонной функции g (то есть либо монотонно возрастающейфункции, либо монотонно убывающей функции справедливо аналогичное теореме 23утверждение).
Теорема 24.Пусть ξ имеетфункцию распределения Fξ(x) и плотность распределения fξ(x), и функцияg: R® Rмонотонна. Тогда случайная величина η=g(ξ) имеет плотность распределения
/>
Здесь g -1—функция, обратная к g,и
/>—производная функции g -1.
Следствие7. Если ξ Î N0,1, то η= σξ+а Î /> 
Следствие8. Если ηÎ />,то ξ = (η–а)/ σÎ N0,1.
Следствие9. Если ξ Î Еα, то η = αξÎ Е110.2 Функции от двух случайных величин
Пусть ξ1 ξ2 — случайные величины с плотностьюсовместного распределения />, изадана функция g: R2® R. Требуется найти функцию (аесли существует, то и плотность) распределения случайной величины η = g(ξ1, ξ2).
Пользуясь тем, что вероятность случайному вектору попасть вобласть можно вычислить как объем под графиком плотности распределения векторанад этой областью, сформулируем утверждение.
Теорема 25.Пусть хÎ R, и область Dx Î R2 состоит из точек (x1 x2 ) таких, что g(x1 x2 ) x. Тогда случайная величина η = g(ξ1, ξ2).имеет функцию распределения
/>
Всюду далее в этой главе предполагается, что случайныевеличины ξ1 и ξ2независимы, то есть />
Следствие10 (Формула свертки). Если с. в. ξ1и ξ2 независимы и имеют абсолютнонепрерывное распределение с плотностями  fξ1(x1) и fξ2(x2).,то плотность распределения суммы ξ1 + ξ2 равна «свертке» плотностей fξ1(x1) и fξ2(x2)
/>                                                                                   (9)
Следствие 10 не только предлагает формулу для вычисленияплотности распределения суммы, но и утверждает (заметьте!), что сумма двухнезависимых случайных величин с абсолютно непрерывными распределениями такжеимеет абсолютно непрерывное распределение.
Если даже одна из двух независимых случайных величин имеетдискретное, а вторая – абсолютно непрерывное распределение, то их сумма тожеимеет абсолютно непрерывное распределение, как показывает следующее упражнение.
Упражнение.Пусть с. в. ξимеет таблицу распределения P(ξ  = аi) = pi, с. в. η имеет плотность распределенияfη(x), и эти величины независимы. Доказать, чтоξ +η имеет плотность распределения
/>/>10.3 Примеры использования формулы свертки
Пример 26.Пусть независимые случайные величины ξи η имеютстандартное нормальное распределение. Докажем, что их сумма имеет нормальноераспределение с параметрами и 2.
Доказательство.По формуле свертки, плотность суммы равна
/>
Выделим полный квадрат по uв показателе экспоненты:
/>
Тогда
/>
Последнее равенство верно поскольку под интегралом стоитплотность нормального распределения с параметрами 0и />, так что интеграл по всейпрямой равен 1. Итак, мы получили, что плотность суммы есть плотностьнормального распределения с параметрами 0и 2.
Если сумма двух независимых случайных величин из одного итого же распределения (возможно, с разными параметрами) имеет такое жераспределение, говорят, что это распределение устойчиво относительносуммирования.
В следующих утверждениях, перечислены практически все устойчивыераспределения.
Лемма 3.Пусть случайные величины ξ Î Пλ и ηÎ Пμнезависимы. Тогда ξ+η ÎПλ+μ
Лемма 4.Пусть случайные величины ξ Î Bn,pи ξ Î Bm,pнезависимы. Тогда ξ+η ÎBm+n,p
Лемма 5.Пусть случайные величины /> и /> независимы. Тогда />
Показательное распределение не устойчиво по суммированию,однако его можно считать частным случаем гамма-распределения, которое уже внекотором смысле устойчиво относительно суммирования.
Определение37. Случайная величина ξимеет гамма-распределение Гα,λс параметрами α > 0, λ > 0, если она имеет плотностьраспределения
/>
где постоянная cвычисляется из условия
/>
Заметим, что показательное распределение Еα есть гамма-распределение Гα,1.
Лемма 6.Пусть независимые случайные величины ξ1, …,ξnимеют показательное распределение Еα = Гα,1 Тогда ξ1 +…+ξn Î Гα,n
«Случайных величин без мат. ожидания не бывает, таккак, если у нас есть случайная величина мы всегда в праве от нее что-нибудьожидать.»
Из студенческой контрольной работы.Раздел 11. Числовые характеристики случайных величин11.1 Математическое ожидание случайной величины
Определение38. Математическим ожиданием Eξ (средним значением,первым моментом) случайной величины ξс дискретным распределением, задаваемым таблицей P(ξ  = аi) = pi, называется число
/> если указанныйряд абсолютно сходится.
Если же
/>, то говорят, чтоматематическое ожидание не существует.
Определение39. Математическим ожиданием Eξ  случайной величины ξс абсолютно непрерывным распределением с плотностью распределения fξ(x), называется число
/> если указанныйинтеграл абсолютно сходится.
Если же
/>, то говорят, чтоматематическое ожидание не существует.
Математическое ожидание имеет простой физический смысл: еслина прямой разместить единичную массу, поместив в точку аi массу pi(для дискретного распределения), или «размазав» ее с плотностью fξ(x) (для абсолютно непрерывного распределения),то точка Eξ есть координата «центра тяжести»прямой.
Пример 26.Пусть случайная величина ξравна числу очков, выпадающих при одном подбрасывании кубика. Тогда
/>
/>/>
в среднем при подбрасывании кубика выпадает 3.5 очка
Пример 27.Пусть случайная величина ξ— координата точки, брошенной наудачу на отрезок [a,b]. Тогда
/>/>
центр тяжести равномерного распределения на отрезке естьсередина отрезка.11.2 Свойства математического ожидания
Во всех свойствах предполагается, что рассматриваемыематематические ожидания существуют.
E0. Математическое ожидание случайной величины естьЧИСЛО!
E1. Для произвольной функции функция g: R® R
/>
Доказательство.Мы докажем это свойство (как и почти все дальнейшие) только для дискретногораспределения. Пусть g(ξ) принимает значения с1с2 … с вероятностями
/>
Тогда
/>
E2Математическое ожидание const равно этой const Eс = с.
E3. const можно вынести за знак математического ожидания: E(с ξ) = с Eξ.
Доказательство.Следует из свойства E1 при g(ξ) = с ξ .
E4. Математическое ожидание суммы любых случайныхвеличин ξ и η равно сумме их математическихожиданий.
E (ξ+ η ) = E (ξ)+ E (η)
Доказательство.Для величин с дискретным распределением: пусть xk и yn— значения ξ иη,соответственно.
/>
E5.Если ξ ³п.н. (« почти наверное»,т.е. с вероятностью 1: P(ξ³0 ) = 1),то Eξ ³ ;
Если ξ ³  п.н., и при этом Eξ =, то ξ =  п.н., то есть P(ξ = 0) = 1.
Следствие11.
Если ξ £ η п.н., то Eξ £ Eη .
Если ξ £ η п.н., и приэтом Eξ=  Eη, то ξ = ηп.н.
E6. Математическое ожидание произведениянезависимых случайных величин равно произведению их математических ожиданий.:если ξ иηнезависимы, то
E(ξη) = Eξ  Eη.
Доказательство.
/>
Замечание16. Обратное утверждение к свойству E6 неверно: из равенства E(ξη) = Eξ  Eη. Не следует независимостьвеличин ξ и η.
Пример 28.Пусть φ ÎU0,2π, ξ= cosφ, η= sin φ—заведомо зависимые случайные величины. Но математическое ожидание ихпроизведения равно произведению их математических ожиданий: по свойству E1
/>11.3 Моменты старших порядков. Дисперсия
Определение40. Если />, то число
/> называется моментомпорядка k (k -м моментом) случайной величины ξ;
/> называется абсолютныммоментом порядка k(абсолютным k -ммоментом) случайной величины ξ;
/> называется центральныммоментом порядка k(центральным k -ммоментом) случайной величины ξ;
/> называетсяабсолютным центральным моментом порядка k (абсолютным центральным k -м моментом) случайнойвеличины ξ.
Число Dξ= E(ξ– Eξ)2 (центральный момент порядка 2) называетсядисперсией случайной величины ξ
Пример 29.Пусть, скажем, случайная величина ξ принимает значение 0 с вероятностью1-10-5, и значение 100 с вероятностью 10-5. Посмотрим,как моменты разных порядков реагируют на большие, но маловероятные значенияслучайной величины.
/>
Пример 30.Дисперсия Dξ= E(ξ– Eξ)2есть «среднее значение квадратаотклонения случайной величины ξ от своегосреднего». Посмотрим, за что эта величина отвечает.
Пусть случайная величина ξпринимает значения +-1 с вероятностью 1/2, а случайная величина η —значения ю +-10 с вероятностью 1/2. Тогда Eξ = Eη = 0 поэтому Dξ=  Eξ2 = 1,Dη = Eη2 = 100. Говорят, чтодисперсия характеризует степень разброса значений случайной величины вокруг еематематического ожидания.
Если говорить о распределении случайной величины,как о распределении единичной массы по невесомому стержню, то дисперсия есть вточности момент инерции этого стержня, закрепленного в центре тяжести.
Определение40. Если дисперсия величины ξ конечна, то число />называютсреднеквадратичным отклонением случайной величины ξ.
Следует хорошо понимать, что из существованиямоментов больших порядков следует существование моментов меньших порядков. Вчастности, конечность второго момента (или дисперсии) влечет существованиематематического ожидания.11.4 Свойства дисперсии
Все свойства дисперсии следуют из соответствующихсвойств математического ожидания.
D1. />
Действительно,
/>
D2. />
D3.
/>если итолько если ξ= const.п.н.
Доказательство.Дисперсия есть всего-навсего математическое ожидание п.н. неотрицательной с.в.:
Dξ= E(ξ– Eξ)2, и неотрицательность дисперсии следует из свойстваE5. По тому же свойству, Dξ= 0 если и только если E(ξ– Eξ)2 = 0 п.н., то есть ξ= ξ п.н.
D4. Дисперсия не меняется от сдвига с.в. напостоянную:
/>
D5. Если ξ и η независимы, то
/>
Действительно,
/>
так как математическое ожидание произведениянезависимых с.в. равно произведению их математических ожиданий.
D6. Минимум среднеквадратического отклоненияслучайной величины ξ от точек вещественной прямой есть среднеквадратическоеотклонение ξот своего математического ожидания:
/>
Наименьший момент инерции стержня сраспределенной на нем единичной массой получится, если точка вращения – центртяжести стержня, а не любая другая точка.
Доказательство.
/>причем равенстводостигается только для а = Eξ.11.5 Математические ожидания и дисперсии стандартных распределений
Пример31. Распределение Бернулли Вр,
/>
Пример32. Биномиальное распределение Вn,p
Воспользуемся свойством устойчивости биномиальногораспределения относительно суммирования — леммой 5. Возьмем n независимых случайных величин ξ1 ξ2 … ξn, имеющихраспределение Бернулли В,p = В1,p.
Тогда их сумма Sn= ξ1 + ξ2 +… +ξnимеет распределение Вn,p
/>
так как все ξi одинаково распределены и их математическоеожидание равно pi;
/>
поскольку ξiнезависимы и дисперсия каждой равна pq.
Пример33. Геометрическое распределение Gp
При p Î(0,1)
/>
Равенство (*) появилось из-за нежеланиядифференцировать сумму геометрической прогрессии, которая начинается не с 0 а с q. Заметьте, что производная у добавленных слагаемых равна 0, так что производные от этих двух сумм равны/> />
/>
Поэтому
Пример34.Распределение Пуассона Пλ
/>/>
Показать, что
/>,следовательно />
Пример35.Равномерное распределение Ua,b
/>/>
/>
Пример36.Стандартное нормальное распределение N0,1
/>
поскольку под интегралом стоит нечетная функция, исам интеграл абсолютно сходится (за счет быстро убывающей />
/>
Последнее равенство следует из того, что /> />
а интеграл по всей прямой от плотности любого распределения равен 1.Поэтому
/>

Пример37.Нормальное распределение />
Мы знаем, что если
/>/>
Поэтому
/>
Пример38.Показательное (экспоненциальное) распределение Еα
Найдем для произвольного kÎN момент порядка k.
/>
В последнем равенстве мы воспользовалисьгамма-функцией Эйлера:
/> Соответственно,
/>
Пример39.Стандартное распределение Коши С0,1
РаспределениеКоши. Говорят, что ξимеет распределение Коши с параметрами α,σ2, где α ÎR, σ> 0, если
/> длявсех х ÎR
Распределение Коши имеет, например, абсцисса точкипересечения луча, посланного из точки (α, σ) под наудачу выбранным углом,
/> с осьюОХ.
Математическое ожидание для распределения Коши несуществует, поскольку
/>
расходится (подинтегральная функция ведет себя набесконечности как 1/х).
Пример40.Распределение Парето
РаспределениеПарето. Говорят, что ξ имеет распределение Парето с параметрамих0, s, где х0> 0,  s> 0, если
/>
У распределения Парето существуют только моментыпорядка us, поскольку
/>
сходится при u, то есть когда подинтегральная функция на бесконечностибесконечно мала по сравнению с 1/х.
«Случайных величин без мат. ожидания не бывает, таккак, если у нас есть случайная величина мы всегда в праве от нее что-нибудьожидать.»
Из студенческой контрольной работы.Раздел 11. Числовые характеристики случайных величин11.1 Математическое ожидание случайной величины
Определение38. Математическим ожиданием Eξ (средним значением,первым моментом) случайной величины ξс дискретным распределением, задаваемым таблицей P(ξ  = аi) = pi, называется число
/> если указанныйряд абсолютно сходится.
Если же
/>, то говорят, чтоматематическое ожидание не существует.
Определение39. Математическим ожиданием Eξ  случайной величины ξс абсолютно непрерывным распределением с плотностью распределения fξ(x), называется число
/> если указанныйинтеграл абсолютно сходится.
Если же
/>, то говорят, чтоматематическое ожидание не существует.
Математическое ожидание имеет простой физический смысл: еслина прямой разместить единичную массу, поместив в точку аi массу pi(для дискретного распределения), или «размазав» ее с плотностью fξ(x) (для абсолютно непрерывного распределения),то точка Eξ есть координата «центра тяжести»прямой.
Пример 26.Пусть случайная величина ξравна числу очков, выпадающих при одном подбрасывании кубика. Тогда
/>
/>/>
в среднем при подбрасывании кубика выпадает 3.5 очка
Пример 27.Пусть случайная величина ξ— координата точки, брошенной наудачу на отрезок [a,b]. Тогда
/>/>
центр тяжести равномерного распределения на отрезке естьсередина отрезка.11.2 Свойства математического ожидания
Во всех свойствах предполагается, что рассматриваемыематематические ожидания существуют.
E0. Математическое ожидание случайной величины естьЧИСЛО!
E1. Для произвольной функции функция g: R® R
/>
Доказательство.Мы докажем это свойство (как и почти все дальнейшие) только для дискретногораспределения. Пусть g(ξ) принимает значения с1с2 … с вероятностями
/>
Тогда
/>
E2Математическое ожидание const равно этой const Eс = с.
E3. const можно вынести за знак математического ожидания: E(с ξ) = с Eξ.
Доказательство.Следует из свойства E1 при g(ξ) = с ξ .
E4. Математическое ожидание суммы любых случайныхвеличин ξ и η равно сумме их математическихожиданий.
E (ξ+ η ) = E (ξ)+ E (η)
Доказательство.Для величин с дискретным распределением: пусть xk и yn— значения ξ иη,соответственно.
/>
E5.Если ξ ³п.н. (« почти наверное»,т.е. с вероятностью 1: P(ξ³0 ) = 1),то Eξ ³ ;
Если ξ ³  п.н., и при этом Eξ =, то ξ =  п.н., то есть P(ξ = 0) = 1.
Следствие11.
Если ξ £ η п.н., то Eξ £ Eη .
Если ξ £ η п.н., и приэтом Eξ=  Eη, то ξ = ηп.н.
E6. Математическое ожидание произведениянезависимых случайных величин равно произведению их математических ожиданий.:если ξ иηнезависимы, то
E(ξη) = Eξ  Eη.
Доказательство.
/>
Замечание16. Обратное утверждение к свойству E6 неверно: из равенства E(ξη) = Eξ  Eη. Не следует независимостьвеличин ξ и η.
Пример 28.Пусть φ ÎU0,2π, ξ= cosφ, η= sin φ—заведомо зависимые случайные величины. Но математическое ожидание ихпроизведения равно произведению их математических ожиданий: по свойству E1
/>11.3 Моменты старших порядков. Дисперсия
Определение40. Если />, то число
/> называется моментомпорядка k (k -м моментом) случайной величины ξ;
/> называется абсолютныммоментом порядка k(абсолютным k -ммоментом) случайной величины ξ;
/> называется центральныммоментом порядка k(центральным k -ммоментом) случайной величины ξ;
/> называетсяабсолютнымцентральным моментом порядка k(абсолютным центральным k-м моментом) случайной величины ξ.
Число Dξ= E(ξ– Eξ)2 (центральный момент порядка 2) называетсядисперсией случайной величины ξ
Пример 29.Пусть, скажем, случайная величина ξ принимает значение 0 с вероятностью1-10-5, и значение 100 с вероятностью 10-5. Посмотрим,как моменты разных порядков реагируют на большие, но маловероятные значенияслучайной величины.
/>
Пример 30.Дисперсия Dξ= E(ξ– Eξ)2есть «среднее значение квадратаотклонения случайной величины ξ от своегосреднего». Посмотрим, за что эта величина отвечает.
Пусть случайная величина ξпринимает значения +-1 с вероятностью 1/2, а случайная величина η —значения ю +-10 с вероятностью 1/2. Тогда Eξ = Eη = 0 поэтому Dξ=  Eξ2 = 1,Dη = Eη2 = 100. Говорят, чтодисперсия характеризует степень разброса значений случайной величины вокруг еематематического ожидания.
Если говорить о распределении случайной величины,как о распределении единичной массы по невесомому стержню, то дисперсия есть вточности момент инерции этого стержня, закрепленного в центре тяжести.
Определение40. Если дисперсия величины ξ конечна, то число />называютсреднеквадратичным отклонением случайной величины ξ.
Следует хорошо понимать, что из существованиямоментов больших порядков следует существование моментов меньших порядков. Вчастности, конечность второго момента (или дисперсии) влечет существованиематематического ожидания.11.4 Свойства дисперсии
Все свойства дисперсии следуют из соответствующихсвойств математического ожидания.
D1. />
Действительно,
/>
D2. />
D3.
/>если итолько если ξ= const.п.н.
Доказательство.Дисперсия есть всего-навсего математическое ожидание п.н. неотрицательной с.в.:
Dξ= E(ξ– Eξ)2, и неотрицательность дисперсии следует из свойстваE5. По тому же свойству, Dξ= 0 если и только если E(ξ– Eξ)2 = 0 п.н., то есть ξ= ξ п.н.
D4. Дисперсия не меняется от сдвига с.в. напостоянную:
/>
D5. Если ξ и η независимы, то
/>
Действительно,
/>
так как математическое ожидание произведениянезависимых с.в. равно произведению их математических ожиданий.
D6. Минимум среднеквадратического отклоненияслучайной величины ξ от точек вещественной прямой есть среднеквадратическоеотклонение ξот своего математическогоожидания:
/>
Наименьший момент инерции стержня сраспределенной на нем единичной массой получится, если точка вращения – центртяжести стержня, а не любая другая точка.
Доказательство.
/>причем равенстводостигается только для а = Eξ.11.5 Математические ожидания и дисперсии стандартных распределений
Пример31. Распределение Бернулли Вр,
/>
Пример32. Биномиальное распределение Вn,p
Воспользуемся свойством устойчивости биномиальногораспределения относительно суммирования — леммой 5. Возьмем n независимых случайных величин ξ1 ξ2 … ξn, имеющихраспределение Бернулли В,p = В1,p.
Тогда их сумма Sn= ξ1 + ξ2 +… +ξnимеет распределение Вn,p
/>
так как все ξi одинаково распределены и ихматематическое ожидание равно pi;
/>
поскольку ξiнезависимы и дисперсия каждой равна pq.
Пример33. Геометрическое распределение Gp
При p Î(0,1)
/>
Равенство (*) появилось из-за нежеланиядифференцировать сумму геометрической прогрессии, которая начинается не с 0 а с q. Заметьте, что производная у добавленных слагаемых равна 0, так что производные от этих двух сумм равны/> />
/>
Поэтому
Пример34.Распределение Пуассона Пλ
/>/>
Показать, что
/>,следовательно />
Пример35.Равномерное распределение Ua,b
/>/>
/>
Пример36.Стандартное нормальное распределение N0,1
/>
поскольку под интегралом стоит нечетная функция, исам интеграл абсолютно сходится (за счет быстро убывающей />
/>
Последнее равенство следует из того, что /> />
а интеграл по всей прямой от плотности любого распределения равен 1.Поэтому
/>

Пример37.Нормальное распределение />
Мы знаем, что если
/>/>
Поэтому
/>
Пример38.Показательное (экспоненциальное) распределение Еα
Найдем для произвольного kÎN момент порядка k.
/>
В последнем равенстве мы воспользовалисьгамма-функцией Эйлера:
/> Соответственно,
/>
Пример39.Стандартное распределение Коши С0,1
РаспределениеКоши. Говорят, что ξимеет распределение Коши с параметрами α,σ2, где α ÎR, σ> 0, если
/> длявсех х ÎR
Распределение Коши имеет, например, абсцисса точкипересечения луча, посланного из точки (α, σ) под наудачу выбранным углом,
/> с осьюОХ.
Математическое ожидание для распределения Коши несуществует, поскольку
/>
расходится (подинтегральная функция ведет себя набесконечности как 1/х).
Пример40.Распределение Парето
РаспределениеПарето. Говорят, что ξ имеет распределение Парето с параметрамих0, s, где х0> 0,  s> 0, если
/>
У распределения Парето существуют только моментыпорядка us, поскольку
/>
сходится при u, то есть когда подинтегральная функция на бесконечностибесконечно мала по сравнению с 1/х.Раздел 12. Числовые характеристики зависимостислучайных величин12.1 Чем отличается дисперсия суммы от суммы дисперсий?
Мы знаем, что для независимых с. в. с конечнымивторыми моментами дисперсия их суммы равна сумме их дисперсий. Чему равнадисперсия суммы в общем случае?
/>(10)
Величина E(ξη)- Eξ Eη равняется нулю, если случайныевеличины  ξ и η независимы (свойство E6математического ожидания). С другой стороны, из равенства ее нулю вовсе неследует независимость, как показывает пример 30. Оказывается, что эту величинучасто используют как «индикатор наличия зависимости» пары с. в.
Определение41. Ковариацией cov(ξ, η) случайных величин ξ и ηназывается число
/>
Свойство10.
/>
Свойство11.
a)    />;
b)    />.
Свойство12. Дисперсия суммы нескольких случайных величин вычисляется полюбой из следующих формул:
/>
Обсудим достоинства и недостатки ковариации, каквеличины, характеризующей зависимость двух с. в.
1. Если ковариация cov(ξ,η) отлична от нуля, то величины ξи η зависимы!
2. С гарантией о наличии зависимости мы можемсудить, если знаем совместное распределение пары ξ и η,и можем проверить, равна ли (например) плотность совместного распределенияпроизведению плотностей.
Но найти совместное распределение часто бываетсложнее, чем посчитать математическое ожидание произведения ξ и η.Если нам повезет, и математическое ожидание произведения ξ и ηне будет равняться произведению их мат. ожиданий, мы скажем, что ξ и ηзависимы не находя их совместного распределения!
Пример41. Покажем, что с помощью ковариации можно судить о зависимостидаже когда для вычисления совместного распределения недостаточно данных.
Пусть ξи η — независимыеслучайные величины, и дисперсия ξотлична от нуля. Докажем, что ξи ξ+ η зависимы.
/>                                      (11)
Поэтому
/>
Следовательно, ξи ξ+ η зависимы.
3. Жаль, что величина cov(ξ,η)  не является «безразмерной»: если ξ – объем газа в сосуде, а η  – давление этого газа,то ковариация измеряется в кубометрах х Паскали :).
Иначе говоря, при умножении одной из величин ξ, η на какое-нибудь число ковариациятоже умножается на это число. Но умножение на число не сказывается на «степенизависимости» величин (они от этого «более зависимыми» не становятся), так чтобольшое значение ковариации не означает более сильной зависимости.
Нужно как-то нормировать ковариацию, получив из нее«безразмерную» величину, абсолютное значение которой
а) не менялось бы при умножении или сдвиге случайныхвеличин на число;
б) свидетельствовало бы о «силе зависимости» с. в.
Говря о «силе» зависимости между с.в., мы имеем ввиду следующее. Самая сильная зависимость – функциональная, а из функциональных– линейная зависимость, когда ξ=аη + b п.н.Бывают гораздо более слабые зависимости. Так, если по последовательностинезависимых случайных величин ξ1 ξ2 …построитьξ= ξ1+…ξ24 + ξ25 η = ξ25+ξ26 +…+ξ90, то эти величины зависимы, но очень“слабо зависимы”: через одно-единственное общее слагаемое ξ25 .
Итак, следующая величина есть всего лишь ковариация,нормированная нужным образом.12.2 Коэффициент корреляции
Определение43. Коэффициентом корреляции ρ(ξ,η)  случайных величин ξ, η,дисперсии которых существуют и отличны от нуля, называется число
/>
Пример42. Рассмотрим продолжение примера 41, но пусть ξ и ηбудут не только независимыми, но и одинаково распределенными случайнымивеличинами, и их дисперсия отлична от нуля. Найдем коэффициент корреляциивеличин ξ и ξ + η. Согласно формуле (10),
/>
Поэтому
/>
Определение44. Случайные величины ξи η называют некоррелированными,если cov(ξ, η) = 0  (или если ρ(ξ, η) = 0, — в том случае, когда коэффициенткорреляции существует).
Замечание17. Если одна из величин ξи η — постоянная, то этивеличины независимы, и cov(ξ, η) = 0. Естественно в этомслучае тоже полагать, что ξ иη «некоррелированы», хотякоэффициент корреляции не определен (дисперсия постоянной равна 0).12.3 Свойства коэффициента корреляции
Всюду далее специально не оговаривается, нопредполагается, что коэффициент корреляции существует.
Теорема26.
Коэффициент корреляции обладает следующимисвойствами.
1. Если с. в. ξи η независимы, то ρ(ξ, η) = cov(ξ, η) =  0.
2. ½ρ(ξ, η)½£. 1
3. ½ρ(ξ, η)½= 1, если и только если с. в. ξ и ηс вероятностью 1 линейно связаны, т.е. существуют числа а ¹и b такие, что P(η= aξ+ b) = 1.
Определение45. Пусть D конечна иотлична от нуля. Определим случайную величину
/>
Преобразование /> называется стандартизациейслучайной величины ξ,а сама с. в. /> называетсястандартизованной , или (слэнг!) центрированной и нормированной  версиейс. в. ξ.
Свойство13. Стандартизованная с. в. />имеетнулевое математическое ожидание и единичную дисперсию.
Доказательство.Воспользуемся свойствами математического ожидания и дисперсии:
/>
Полезно знать следующие часто употребляемые термины.
Определение46. Говорят, что величины ξ и η отрицательно коррелированы, если ρ(ξ, η) ; говорят, что величины ξ и ηположительно коррелированы, если ρ(ξ, η)> 0.
Смысл знака коэффициента корреляции особенно ясен вслучае ½ρ(ξ, η) ½= 1. Тогдазнак ρ равен знакуa в равенстве η = aξ+ b п.н. То есть ρ(ξ, η) = 1 означает, что чем больше ξ, тем больше и η. Напротив, ρ(ξ, η) = -1означает, что чем больше ξ,тем меньше η.Похожим образом можно трактовать знак коэффициента корреляции и в случае, когда½ρ(ξ, η) ½, помня при этом, что зависимостьвеличин ξ и ηтеперь уже не линейная и, возможно, даже не функциональная.
Так, величины ξи ξ + η в примерах 41и 42 положительно коррелированы, но их зависимость не функциональная.
Пример43.
/>
Если с. в. ξ и η есть координаты точки, брошеннойнаудачу в треугольник с вершинами (2,0), (0,0) и (0,1), токоэффициент корреляции ρ(ξ, η) отрицателен. Это можнообъяснить «на пальцах» так: Чем больше ξ,тем меньше у  η возможностей быть большой) Предлагаю убедиться вэтом, проверив справедливость следующих высказываний.
Во-первых,
/>
Во-вторых,
Совместное распределение координат точки,брошенной наудачу в произвольную (измеримую) область D на плоскости имеет постоянную плотность вовсех точках области D.Это связано с понятием «наудачу»: вероятность попасть в любую область AÌD, с одной стороны зависит только от площадиА и не зависит от формы и положения А внутриD, равняясь с другой стороны,интегралу по области А отплотности совместного распределения координат точки. Эти два качества возможносовместить, только если плотность совместного распределения постоянна внутри D. Более того, эта постоянная, каклегко видеть, есть просто /> (хотя быпотому, что интеграл от нее по всей области D должен ровняться вероятности попасть в D, или единице).
Распределение точки, брошенной наудачу в область(все равно где), называют равномерным распределением.
Итак, плотность равномерного распределения впроизвольной области на плоскости — постоянная, равная (1/ площадь области) дляточек внутри области и нулю — вне. Поэтому (а также потому, что площадь этоготреугольника равна 1)
/>
То есть ковариация (а с ней и коэффициенткорреляции) отрицательна (посчитать cov(ξ, η)).
Пример44.
Найти коэффициент корреляции между числом выпаденийединицы и числом выпадений шестерки при nподбрасываниях симметричного кубика.
Решение.Обозначим для i= 1, 2, 3, 4, 5, 6  через ξi случайную величину, равную числувыпадений грани с iочками при nподбрасываниях кубика. Посчитаем cov(ξ1, ξ6).
Каждая из случайных величин ξi имеет биномиальное распределение спараметрами n и 1/6, поэтому
/>.
Заметим, что сумма ξ1 + … + ξn этих величин равна n. В силу симметрии кубика, всематематические ожидания />одинаковы,но, скорее всего, отличаются от
/>
Посчитаем
/>
 С одной стороны, это равно
/>
с другой стороны,
/>
Отсюда
/>
Следовательно, искомый коэффициент корреляции равен
/>
Интересно, что полученный коэффициент корреляции независит от n.
…Откуда, наконец, вытекает то удивительное, по-видимому, следствие, что, если бынаблюдения над всеми событиями продолжать всю вечность, причем вероятность,наконец, перешла бы в полную достоверность, то было бы замечено, что в мире всеуправляется точными отношениями и постоянным законом изменений, так что даже ввещах, в высшей степени случайных, мы принуждены были бы признать как бынекоторую необходимость и, скажу я, рок.
Я к о б Б е р н у л л и, Arsconjectandi (1713)Раздел 13. Куда и как сходятся последовательности случайных величин13.1 Сходимость «почти наверное» и «по вероятности»
Напомню, что случайная величина есть (измеримая)функция из некоторого абстрактного множества Ωв множество действительных чисел. Последовательность случайных величин есть,тем самым, последовательность функций (определенных на одном и том жепространстве элементарных исходов Ω).И если мы хотим говорить о сходимости последовательности случайных величин {ξn}¥n=1, не будем забывать, что мы имеемдело не с последовательностью чисел, а с последовательностью функций.Существуют разные виды сходимости последовательности функций. Всякий раз даватьопределение какой-либо сходимости мы будем, опираясь на сходимость числовыхпоследовательностей, как на уже известное основное понятие.
В частности, при каждом новом ω Î Ωмы имеем новую числовую  последовательность {ξn(ω )}¥n=1. Поэтому, во-первых, можноговорить о знакомой из математического анализа (почти) поточечной сходимостипоследовательностей функций: о сходимости «почти всюду», которую в теориивероятностей называют сходимостью «почти наверное».
Определение46. Говорят, что последовательность с. в. {ξn} сходится почти наверное к с. в. ξ приn®¥, ипишут: ξn ® ξ п. н., если P{ ω: ξn(ω ) ®ξ приn®¥} = 1.
Иначе говоря, если ξn(ω ) ®ξ приn®¥ для всех ω Î Ω,кроме, возможно, ω ÎA,где множество (событие) A имеетнулевую вероятность.
Заметим сразу: чтобы говорить о сходимости «почтинаверное», требуется (по крайней мере, по определению) знать, как устроеныотображения ω ®ξn(ω ). В задачах же теориивероятностей, как правило, известны не сами случайные величины, а лишь ихраспределения. Известно, то есть, какова вероятность тех элементарныхисходов ω, для которых ξn(ω ) принимает значения в заданном множестве. Можем ли мы,обладая только информацией о распределениях, говорить о какой-либо сходимостипоследовательности случайных величин {ξn} к с. в. ξ?
Можно, например, потребовать, чтобы вероятность(«доля») тех элементарных исходов ω,для которых ξn(ω ) не попадает в «ε-окрестность» числа ξ (ω ), уменьшалась до нуля сростом n. Такаясходимость в функциональном анализе называется сходимостью «по мере», а втеории вероятностей — сходимостью «по вероятности».
Определение47. Говорят, что последовательность с. в. { ξn} сходятся по вероятности к с. в.  ξ приn ®¥, и пишут:
/>
если для любого ε> 0 
/>
Пример45. Рассмотрим последовательность с. в. ξ1, ξ2,…, в которой все величины имеют разные распределения: с. в. ξn, n> 0, принимает значения и и n7 с вероятностями />. Докажем, что эта последовательностьсходится по вероятности к случайной величине, равной нулю п. н. (к нулю, прощеговоря).
Действительно, зафиксируем произвольное ε > 0. Для всех n начиная с некоторого nтакого, что n7 >ε верно равенство (*) ниже
/>
Итак, случайные величины ξn с ростом n могут принимать все большие и большиезначения, но со все меньшей и меньшей вероятностью.
Замечание18. Сходимость по вероятности не обязательно сопровождаетсясходимостью математических ожиданий или моментов других порядков: из />не следует, что/>
Действительно, в примере 45 имеет местосходимость />, но неверно, что />
Если вместо значения n7взять, скажем, n (с тойже вероятностью 1/n), получим
/>
А если ξnпринимает значения и /> с теми же вероятностями,что и в примере 45, то />, но ужевторые моменты сходиться ко второму моменту ξне будут:
/>
Сходимость по вероятности обладает обычными длясходимостей свойствами. Например, такими.
Свойство13. Если />, то
1. />;
2. />.
Свойство14.
Если />, и g – непрерывная функция, то />
Если />, и g – непрерывна в точке с, то />
Чтобы доказывать сходимость по вероятности, можнопросто уметь вычислять /> при больших n. Но для этого нужно знатьраспределение ξn,что не всегда возможно. Скажем, ξnможет быть суммой  нескольких других с. в., распределения которых не устойчивыпо суммированию, и вычислить распределение их суммы по формуле свертки иликак-то еще бывает слишком сложно.
Если бы мы имели неравенства, позволяющие оценить /> сверху чем-либо, что мыумеем устремлять к нулю и что проще вычисляется, то сходимость по вероятностимы получили бы по лемме о двух милиционерах: />.Итак, неравенства П. Л. Чебышёва.13.2 Неравенства Чебышёва
Все неравенства в этом параграфе принято относить кодному классу, называемому «неравенствами Чебышёва». Следующее неравенствочасто называют собственно неравенством Чебышёва, хотя в такой форме онопоявилось впервые, видимо, в работах А. А. Маркова (например, Исчислениевероятностей, 1913 г.).
Теорема27 (Неравенство Маркова).
Если />, то длялюбого положительного x
/>
Доказательство.Введем новую случайную величину ξx, называемую «срезкой» с.в. ½ξ½ на уровне x:
/>
Для неё и,
1./>
2. />
Нам потребуется следующее понятие.
Определение48. Пусть A— некоторое событие. Назовем индикатором события A случайнуювеличину I(A), равную единице, если событие A произошло, и нулю, если A непроизошло.
По определению, I(A)имеет распределение Бернулли  с параметром p=  P(I(A)= 1) = P(A),и ее математическое ожидание равно вероятности успеха p= P(A).
Случайную величину ξхможно представить в виде
/>
Тогда
/>                          (11)
Вспомним, что />,и оценим />снизу согласно (11):
/>
Итак, />,что и требовалось доказать.
Следующее неравенство мы будем называть «обобщеннымнеравенством Чебышёва».
Следствие12. Пусть функция gмонотонно возрастает и неотрицательна на [0,¥]. Если />, то для любогоположительного х
/>
В 1853 г. И. Бьенеме (I. Bienayme) и в 1866 г.,независимо от него, П. Л. Чебышёв прямыми методами доказали следующеенеравенство
Следствие13 (Неравенство Чебышёва-Бьенеме). Если />, то
/>
В качестве следствия получим так называемое «правилотрех сигм», которое формулируют, например, так: вероятность случайнойвеличине отличаться от своего математического ожидания более, чем на три корняиз дисперсии, мала. Разумеется, для каждого распределения величина этойвероятности своя: для нормального распределения, например, эта вероятностьравна 0,0027 — см. свойство 9. Мы получим верную для всех распределенийс конечной дисперсией оценку сверху для «вероятности с. в. отличаться от своегоматематического ожидания более, чем на три корня из дисперсии».
Следствие14. Если />, то />13.3 Законы больших чисел
Определение49. Говорят, что последовательность с. в. />с конечными первымимоментами удовлетворяет закону больших чисел (ЗБЧ), если
/>                                                                                      (12)
Законами больших чисел принято называть утвержденияоб условиях, при которых последовательность с. в. «удовлетворяет закону большихчисел».
Выясним сначала, что означает и когда выполнен ЗБЧдля независимых и одинаково распределенных с.в.
Заметим, что если с. в. одинакого распределены, томатематические ожидания у них одинаковы (и равны, например,/>), поэтому (12) можнозаписать в виде
/>
Итак, законы больших чисел.
Теорема28 (ЗБЧ в форме Чебышёва).
Для любой последовательности независимых иодинаково распределенных случайных величин с конечным вторым моментом /> имеет место сходимость:
/>
ЗБЧ утверждает, что среднее арифметическое большогочисла случайных слагаемых «стабилизируется» с ростом этого числа. Как бы сильнокаждая с. в. не отклонялась от своего среднего значения, при суммировании эти отклонения«взаимно гасятся», так что среднее арифметическое приближается к постояннойвеличине.
В дальнейшем мы увидим, что требование конечностивторого момента (или дисперсии) связано исключительно со способомдоказательства, и что утверждение остается верным если требовать существованиятолько первого момента.
Доказательство.Обозначим через /> сумму первых n с. в., а их среднееарифметическое через  />. Тогда
/>
Пусть ε >0. Воспользуемся неравенством Чебышёва (следствие 13):
/>               (13)
при />,поскольку />, по условию, конечна.
Следствие15. Последовательность с. в. /> сконечными вторыми моментами удовлетворяет ЗБЧ, то есть
/>
при выполнении любого из следующих условий:
а) если />, то есть/> при />;
б) если />независимыи />, то есть
/>
в) если /> независимы,одинаково распределены и имеют конечную дисперсию (ЗБЧ Чебышёва).
Теорема29 (ЗБЧ в форме Хинчина).
Для любой последовательности независимых и одинаковораспределенных случайных величин с конечным первым моментом /> имеет место сходимость:
/>
Более того, в условиях теоремы 29 имеет местосходимость «почти наверное». Получим в качестве следствия из ЗБЧ Чебышёва законбольших чисел Я. Бернулли (1713). В отличие от доказанного через полторастолетия ЗБЧ Чебышёва, описывающего предельное поведение среднегоарифметического с. в. с произвольными распределениями, ЗБЧ Бернулли —утверждение только для схемы Бернулли.
Теорема30 (ЗБЧ Бернулли).
Пусть А— событие, которое может произойти в любом из n независимых испытаний с одной и той жевероятностью P(А). Пусть vn(А) — число осуществлений события А в n испытаниях. Тогда
/> 
При этом для любого ε> 0
/>13.4 Примеры использования ЗБЧ и неравенства Чебышёва
Пример46.
Монета подбрасывается 10 000 раз. Оценитьвероятность того, что частота выпадения герба отличается от вероятности болеечем на одну сотую.
Требуется оценить />,где />—число выпадений герба, а /> — независимые с. в.,имеющие распределение Бернулли с параметром 1/2, равные «числу гербов, выпавшихпри i-м подбрасывании»(то есть единице, если выпал герб и нулю иначе, или индикатору того, что выпалгерб). Поскольку />, искомая оценкасверху выглядит так:
/>
Иначе говоря, неравенство Чебышёва позволяетзаключить, что, в среднем, не более чем в четверти случаев при 10 000подбрасываниях монеты частота выпадения герба будет отличаться от 1/2 более чемна одну сотую. Мы увидим, насколько это грубая оценка, когда познакомимся с центральнойпредельной теоремой.
Пример47.
Пусть /> —последовательность случайных величин, дисперсии которых ограничены одной и тойже постоянной С, а ковариации любых с. в. /> и/> (/>), не являющихся соседними впоследовательности, равны нулю. Удовлетворяет ли эта последовательность ЗБЧ?
Воспользуемся неравенством (13) и свойством 12:
/>
Но  для i j, по условию, />, если />. Следовательно, в сумме /> равны нулю все слагаемыекроме, может быть, /> (их ровно n-1 штука).
Оценим каждое из них, используя одно из свойствкоэффициента корреляции
/>(поусловию задачи)
/>/>
при />, т.е.последовательность /> удовлетворяетЗБЧ.
…Из этой первой лекции по теории вероятностей я запомнил только полузнакомыйтермин «математическое ожидание». Незнакомец употреблял этот терминнеоднократно, и каждый раз я представлял себе большое помещение, вроде залаожидания, с кафельным полом, где сидят люди с портфелями и бюварами и,подбрасывая время от времени к потолку монетки и бутерброды, сосредоточенночего-то ожидают. До сих пор я часто вижу это во сне. Но тут незнакомец оглушилменя звонким термином «предельная теорема Муавра — Лапласа» и сказал, что всеэто к делу не относится.
Аркадийи Борис Стругацкие, СтажерыРаздел 14. ЦПТ (центральная предельная теорема)14.1 Как быстро /> сходитсяк />?
Пусть, как в законе больших чисел в форме Чебышёва, /> — сумма n независимых и одинаковораспределенных величин с конечной дисперсией. Тогда, в силу ЗБЧ, /> с ростом n. Или, после приведения кобщему знаменателю,
/>
Если при делении на nмы получили в пределе нуль (в смысле некоторой, все равно какой, сходимости),резонно задать себе вопрос: а не слишком ли на «много» мы поделили? Нельзя липоделить на что-нибудь, растущее к бесконечности медленнее, чем n, чтобы получить в пределе не нуль (и не бесконечность,само собой)?
Можно поставить этот вопрос по-другому. Вотпоследовательность, стремящаяся (как-то) к нулю. Можно ли ее домножить начто-либо растущее, чтобы «погасить» это стремление к нулю? Получив, тем самым,что-нибудь конечное и отличное от нуля в пределе?
Оказывается, что уже />,или, что, то же самое, />, несходится к нулю. Распределение этой, зависящей от n, случайной величины становится все болеепохоже на нормальное распределение! Можно считать, что такая последовательностьсходится к случайной величине, имеющей нормальное распределение, но сходится непо вероятности, а только в смысле сходимости распределений, или «слабойсходимости».14.2 Слабая сходимость
Пусть задана последовательность с. в./>, задано некотороераспределение />с функциейраспределения /> и />— произвольная с. в.,имеющая распределение />.
Определение50. Говорят, что последовательность с. в. /> при />сходится слабо или пораспределению к с. в. />, илиговорят, что последовательность с. в. слабо сходится к распределению />, или говорят, что распределенияс.в. /> слабо сходится краспределению />, и пишут:, /> или />, или />, если для любого хтакого, что функция распределения /> непрерывнав точке х, имеет место сходимость />при />.
Иначе говоря, слабая сходимость — это поточечнаясходимость функций распределения во всех точках непрерывности предельнойфункции распределения.
Свойство15. Если />, и функцияраспределения /> непрерывна вточках a и b, то /> Наоборот, если во всехточках a и b непрерывности функции распределения /> имеет место, например,сходимость />, то />.
Следующее важное свойство уточняет отношения междусходимостями.
Свойство16.
1. Если />, то />.
2. Если /> = const,то />.
Доказательство.Докажем,что слабая сходимость к постоянной влечет сходимость по вероятности.
Пусть
/>
при любом x,являющемся точкой непрерывности предельной функции />, то есть при всех />.
Возьмем произвольное /> и докажем, что/>. Раскроем модуль:
/>
(сужаем событие под знаком вероятности)
/>посколькув точках /> функция /> непрерывна, и,следовательно, имеет место сходимость последовательности />к/>
Осталось заметить, что /> небывает больше 1, так что по лемме о двух милиционерах />.
Следующее свойство приводит пример операций, которыеможно применять к слабо сходящимся последовательностям — скажем, домножать ихна последовательности, сходящиеся по вероятности к постоянным величинам.
Свойство17.
1. Если /> const и />, то />.
2. Если /> const и />, то />.
Несколько содержательных примеров слабой сходимостимы рассмотрим в следующей главе. Но основной источник слабо сходящихсяпоследовательностей и необычайно мощное и универсальное средство дляасимптотического анализа распределения сумм независимых и одинаковораспределенных случайных величин предоставляет нам ЦЕНТРАЛЬНАЯ ПРЕДЕЛЬНАЯТЕОРЕМА14.3 Центральная предельная теорема
Мы будем называть следующее утверждение «ЦПТ А. М.Ляпунова» (1901), но сформулируем теорему Ляпунова только в частном случае— для последовательности независимых и одинаково распределенных случайных величин.
Теорема31 (ЦПТ).
Пусть /> —независимые и одинаково распределенные случайные величины с конечной иненулевой дисперсией: />. Обозначим через />сумму первых n случайных величин. Тогдапоследовательность с. в. /> слабосходится к стандартному нормальному распределению.
Пользуясь определением и свойствами слабойсходимости, и заметив, что функция распределения />любогонормального закона непрерывна всюду на R, утверждение ЦПТ можно сформулировать любым из следующихспособов:
Следствие18. Пусть /> — независимые иодинаково распределенные случайные величины с конечной и ненулевой дисперсией.Следующие утверждения эквивалентны друг другу и равносильны утверждению ЦПТ.
Для любых вещественных xy при /> имеет место сходимость
/>
Для любых вещественных xy при /> имеет место сходимость
/>
 Для любых вещественных xy при />  имеет место сходимость
/>
Если /> —произвольная с. в. со стандартным нормальным распределением, то
/>
Замечание19. Еще раз напомним, что функция распределения стандартногонормального закона ищется либо по соответствующей таблице в справочнике, либо спомощью какого-либо программного обеспечения, но никак не путем нахожденияпервообразной.14.4 Предельная теорема Муавра — Лапласа
Получим в качестве следствия из ЦПТ предельнуютеорему Муавра — Лапласа (P. S. Laplace, 1812; A. de Moivre, 1730). Подобно ЗБЧБернулли, предельная теорема Муавра – Лапласа — утверждение только схемыБернулли.
Теорема32 (Предельная теорема Муавра — Лапласа).
Пусть А — событие, которое может произойти в любом из n независимых испытаний с одной и той же вероятностью p = P(A). Пусть /> —число осуществлений события А в n испытаниях. Тогда />. Иначе говоря, для любыхвещественных x при /> имеет место сходимость
/>14.5 Примеры использования ЦПТ
Пример48.
Монета подбрасывается 10 000 раз. Оценитьвероятность того, что частота выпадения герба отличается от вероятности болеечем на одну сотую.
Требуется найти
/>, где />—число выпадений герба, а /> — независимые с. в.,имеющие одно и то же распределение Бернулли с параметром 1/2. Домножим обечасти неравенства под знаком вероятности на /> иподелим на корень из дисперсии />одногослагаемого.
/>
/>
Согласно ЦПТ или предельной теореме Муавра —Лапласа, последовательность
/>
слабо сходится к стандартному нормальномураспределению. Рассмотрим произвольную с. в. />,имеющую распределение />.
/>
Равенство /> следуетиз свойства 10.
Замечание20. Центральной предельной теоремой пользуются для приближенноговычисления вероятностей, связанных с суммами большого числа независимых иодинаково распределенных величин. При этом распределение центрированной и нормированнойсуммы заменяют на стандартное нормальное распределение.
Следующий результат позволяет оценить погрешностьприближения в ЦПТ.
Теорема33 (Неравенство Берри – Эссеена).
В условиях ЦПТ для любого х Î R(то есть равномерно по х)
/>
Замечание21. Про постоянную Сизвестно, что:
а) в общем случае Сне превышает 0,7655 (И. С. Шиганов),
б) погрешность приближения наиболее велика, еслислагаемые /> имеют распределениеБернулли, и С в этом случае неменьше, чем />(C. G. Esseen, Б.А. Рогозин),
в) как показывают расчеты, можно смело брать вкачестве С число 0,4 — даже дляслагаемых с распределением Бернулли, особенно при малых n, когда и это значение постояннойоказывается слишком грубой оценкой.
Подробный обзор можно найти в монографииВ.М.Золотарева «Современная теория суммирования независимых случайных величин»,стр. 264– 291.
Продолжениепримера 48. Проверьте, что для с. в. /> сраспределением Бернулли
/>
Поэтому разница между левой и правой частямиприближенного равенства  в примере 48 при />и/> не превышает величины
/>
так что искомая вероятность />не больше, чем 0,0456+0,004.Уместно сравнить этот ответ с оценкой, полученной с помощью ЗБЧ в примере 48.
Пример49.
Пусть /> —независимые и одинаково распределенные случайные величины с конечной иненулевой дисперсией, />сумму первых n случайных величин. При каких с имеет или не имеет место сходимость
/>
Согласно ЗБЧ, последовательность /> сходится по вероятности (а,следовательно, и слабо) к />. Слабаясходимость означает, что последовательность функций распределения />сходится к функциираспределения />, если /> непрерывна в точке с(и ничего не означает, если /> разрывнав точке с). Но
/>
есть функция распределения вырожденного закона инепрерывна в любой точке с, кроме />.Итак, первый вывод: сходимость /> имеетместо для любого с, кроме, возможно, />.Убедимся, что для /> такой сходимостибыть не может. Пусть />. Согласно ЦПТ,
/>
Аналогично, кстати, ведет себя и вероятность />. Она тоже стремится к 1/2,а не к />


Не сдавайте скачаную работу преподавателю!
Данный реферат Вы можете использовать для подготовки курсовых проектов.

Поделись с друзьями, за репост + 100 мильонов к студенческой карме :

Пишем реферат самостоятельно:
! Как писать рефераты
Практические рекомендации по написанию студенческих рефератов.
! План реферата Краткий список разделов, отражающий структура и порядок работы над будующим рефератом.
! Введение реферата Вводная часть работы, в которой отражается цель и обозначается список задач.
! Заключение реферата В заключении подводятся итоги, описывается была ли достигнута поставленная цель, каковы результаты.
! Оформление рефератов Методические рекомендации по грамотному оформлению работы по ГОСТ.

Читайте также:
Виды рефератов Какими бывают рефераты по своему назначению и структуре.