1. Понятие случайности, изучаемое теорией вероятностей. Частотное определение вероятности. Теория вероятностей – раздел математики, изучающий закономерности случайных явлений, наблюдаемых при многократном повторении опыта. Под опытом G понимается воспроизведение какого-либо комплекса условий для наблюдения исследуемого явления (события). Обычно считается, что событие случайно в опыте, если при неоднократном воспроизведении этого
опыта оно иногда происходит, а иногда – нет, причем нельзя заранее предсказать возможный исход (событие) этого опыта. При этом наблюдается свойство устойчивости частоты случайного события: с увеличением числа повторений опыта значение частоты появления случайного события стабилизируется около некоторого случайного числа. Пусть при n-кратном повторении опыта G событие А произошло mА раз. Частотой Wn(А) события А называется соотношение
Wn(A) = mА/n. Cвойства частоты Wn(А): - Wn(А) 0, так как mА 0 и n > 0; - Wn(А) 1, так как mА n; - Если при n-кратном повторении опыта несовместные события A и B появились соответственно mА и mB раз, то Априори (заранее, до опыта) частота Wn(A) является случайной, т.е. нельзя предсказать точное ее значение до проведения данной серии из n
опытов. Однако природа случайных событий такова, что на практике наблюдается эффект устойчивости частот. Его суть заключается в том, что при увеличении числа опытов значение частоты практически перестает быть случайным и стабилизируется около некоторого неслучайного числа Р(А), соответствующего данному конкретному событию А в опыте G. Число Р(А) первоначально при становлении теории вероятностей называлось вероятностью события
A в опыте G. Введенное понятие указывает на то, что вероятность Р(А) характеризует частоту появления события А при многократном повторении опыта G. 2. Основные понятия теории вероятностей на основе аксиоматического подхода: пространство элементарных исходов, алгебра случайных событий, вероятность и аксиомы, которым она подчиняется. Алгебра событий F, включающая в себя результаты сложения и умножения счетного числа своих элементов
(т.е. замкнутая относительно этих операций), называется -алгеброй. Элементы -алгебры (т.е. подмножества пространства ) называются случайными событиями (или просто событиями). Вероятностью события А называется числовая функция Р(А), определенная на -алгебре и удовлетворяющая следующим четырем аксиомам теории вероятностей: - Каждому событию А F ставится в соответствие неотрицательное число
Р(А), т. е. Р(А) 0 для любого А F. - Вероятность достоверного события равна единице, т. е. Р() = 1. - Для любых несовместных событий А и В из F справедливо равенство Р(А + В) = Р(А) + Р(В). - Для любой убывающей последовательности А1
А2 … Аn … событий из F, такой что A1A2A3 An …= , имеет место равенство Аксиоматические свойства вероятности: - Если Р(А) = 1, но А не равно , то говорят, что событие А в опыте G происходит почти наверное. - Если Р(А) = 0, то говорят, что событие
А почти никогда не происходит в опыте G. 3. Простейшие свойства вероятности: монотонность, формула сложения, вероятность разности событий. Если А В, то Р(А) Р(В), т.е. вероятность монотонна. Представим множество В как В = А + BA (см. рисунок 1). По построению А(ВА)=, следовательно, события
А и ВА несовместны. Поэтому по аксиомам конечной аддитивности* и неотрицательности вероятности имеем Р(В) = Р(А) + Р(ВА) Р(А). Р(А) 1 для любого А F. Так как A , то из свойства монотонности и аксиомы нормировки вероятности следует Р(А) Р() = 1. Формула сложения и вероятность разности событий: Р(А+В) =
Р(А) + Р(В) – Р(АВ) для любых А, В F. Представим А в виде А = АВ + АВ (см. рисунок 2). Очевидно, что события АВ и АВ несовместны. Тогда по аксиоме конечной аддитивности вероятности имеем Р(А) = Р(АВ) + Р(АВ),откуда Р(АВ)=Р(А)-Р(АВ). Аналогичным образом поступим с событием А+В. Имеем А+В = В + АВ, причем события В и АВ несовместны.
Тогда из аксиомы конечной аддитивности вероятности следует Р(А+В)=Р(В)+Р(АВ). Подставляя в данное выражение формулу для Р(АВ), получаем требуемое. Р(А+В)=Р(А)+Р(В)-Р(АВ). * Аксиома: Для любых несовместных событий А и В из F справедливо равенство Р(А + В) = Р(А) + Р(В). 4. Классическая схема. Вычисление вероятностей исходов в трех комбинаторных
моделях. Если множество исходов некоторого опыта конечно и состоит из n равновозможных попарно несовместных событий, составляющих полную группу, то вероятность события Р(А) = m(A)/n, где m(A) – число благоприятных для этого события исходов. В геометрической интерпретации вероятность попадания в область А, включенную в В можно вычислить как отношение меры области
А к мере области В. Для решения некоторых задач удобно пользоваться комбинаторными моделями. Формула перестановки имеет смысл числа вариантов, с помощью которых можно расположить k элементов. N = k! Формула сочетаний имеет смысл числа способов выбрать r элементов из k без учета порядка. Формула размещений имеет смысл числа способов выбрать r элементов из k с учетом порядка, последовательности, иерархии. 5. Классическая схема. Примеры решения задачи о совпадениях, расчета вероятности выигрыша
в лотерее. Если множество исходов некоторого опыта конечно и состоит из n равновозможных попарно несовместных событий, составляющих полную группу, то вероятность события Р(А) = m(A)/n, где m(A) – число благоприятных для этого события исходов. - Набирая номер телефона, абонент забыл последние две цифры и, помня лишь, что цифры различны, набрал их на удачу. Какова вероятность того, что набран нужный номер?
Решение: Общее число исходов Благоприятный исход один – необходимые цифры набраны в необходимом порядке. Вероятность того, что набран нужный номер, легко рассчитать по классической формуле . - В розыгрыше лотереи участвуют 100 билетов, среди которых 25 выигрышных. Студент МАИ приобрел три билета. Какова вероятность его выигрыша? Решение: студент МАИ выиграет в случае, если хотя бы один из билетов окажется выигрышным.
Проще рассмотреть противоположное событие (студент проиграет). Для нового события благоприятными являются исходов. Общее число исходов тоже вычисляется по формуле сочетаний: Вероятность выигрыша студента МАИ: 6. Независимые события. Свойства независимых событий. Примеры: расчет надежности.
События А и В являются называются независимыми, если Р(АВ) = Р(А)Р(В). В противном случае события называются зависимыми. Если любые два события из А1, …, Аn независимы, то события А1, …, Аn называются независимыми в совокупности, или просто независимыми, если для любых k=2,n и 1 i1 < … < ik n верно равенство
Р(Аi1…Aik)=P(Аi1 ) …P(Aik). Независимость событий не следует из их попарной независимости, но обратное утверждение верно. Свойства: - Если события А и В независимы, то независимы также события А и В, А и В, А и В. Для событий А и В имеем Поэтому - Если несовместные события
А и В имеют ненулевые вероятности, то они зависимы. Действительно, по условию АВ = . Если бы А и В были независимыми, тогда было бы верно Р(А)Р(В) = Р(АВ) = Р() = 0, но левая часть равенства по условию нулю не равна. Следовательно, А и В зависимы. Расчет надежности.
Задача*: Система состоит из четырех элементов, надежности которых равны p1=0,8; p2=0,7; p3=0,6; p4=0,5. Элементы отказывают независимо друг от друга. Найти надежность схемы, приведенной на рисунке. Решение: Перейдем к противоположному событию. Система откажет в случае, если откажут одновременно 3ий и 4ый элементы или 4ый, 1ый и 2ой элементы. Необходимо также учесть, что если отказали 3ий и 4ый элементы, то состояние 1ого и 2ого может быть любым. Поэтому вероятность отказа можно вычислить следующим образом:
*Задача 43а на странице 46 учебника Кибзуна. 7. Схема и формула Бернулли. Свойства биномиальных коэффициентов. Рассмотрим последовательность из n независимых испытаний (опытов) с двумя исходами (событиями) А и А, которые называются соответственно «успехом» и «неуспехом», причем Р(А) = p (0,1), Р(А) = q = (по определению) 1 – p. Построенная схема испытаний называется схемой
Бернулли, а сам опыт – опытом Бернулли. Пусть опыт G производится по схеме Бернулли. Тогда вероятность Pn(k) события An(k), состоящего в том, что при n повторениях опыта G событие А произойдет ровно k раз, вычисляется по формуле Бернулли: Докажем справедливость данной формулы. Пусть опыт
G был проведен три раза и необходимо найти вероятность того, что успешный результат будет получен один раз. В таком случае по формуле Бернулли получаем, что вероятность этого события равна 3pq2. Теперь представим это событие в виде суммы несовместных событий A=A1 A2A3+A1ɨ 55;A2A3+A1 61655;A2= 656;A3.
Поскольку события несовместны, P(A) = P(A1 A2A3) + P(A1A2᠕ 5;A3) + P(A1A2᠕ 5;A3). Так как события независимы, вероятность их произведения равна произведению вероятностей. Р(А)=p, P(A)=q. Тогда Р(А) = qqp + qpq + pqq = 3(pqq)=3pq2.
Результаты совпадают. 8. Условная вероятность. Пример вычисления условной вероятности в классической схеме. Свойства условной вероятности. Условной вероятностью Р(А|B) события А относительно события В, если Р(В) > 0, называется вероятность осуществления события А при условии, что событие В уже произошло. Условная вероятность определяется формулой
Р(А|B) = (по определению) P(AB)/P(B). Рассмотрим опыт G, сводящийся к схеме случаев, и предположим, что событиям А, В, АВ благоприятствуют соответственно mA, mB > 0, mAB случаев из всех n возможных. Допустим, что событие В уже произошло. Это означает, что из всех возможных n случаев реально могло появиться только mB случаев,
причем из них только mAB случаев благоприятствуют событию А. Тогда Р(А|B) = mAB/mB. P(AB)=P(A)P(B|A)=P(B)P(A|B). Свойства условной вероятности: - Р(А|) = Р(А). - Если события А и В несовместны, то Р(А|B)=0. - Если события А и В независимы, то Р(А|B) = P(A). События независимы тогда и только тогда, когда условная
вероятность совпадает с безусловной. - Условная вероятность обладает всеми свойствами вероятности. - Если В А, то Р(А|B)=1. Пример: Пусть опыт G состоит в подбрасывании монеты. Монету подбросили. В первый раз выпала решка. Какова вероятность того, что и во второй раз выпадет решка? Решение: Обозначим событие А (в первый раз выпала решка) и событие
В (во второй раз выпала решка). Р(B|A)=P(AB)/P(A)=(1/4)/(1/2)=1/2. Обратим внимание, что Р(В|A)=P(B), что говорит о том, что события А и В независимы. 9. Полная группа гипотез. Формула полной вероятности. Пример. События H1, …, Hn в опыте G образуют полную группу несовместных событий, если они попарно несовместны (HiHj = i j) и в результате опыта произойдет хотя бы одно из событий
Hi, i = 1,n, т.е. H1+…+Hn=. События H1, …, Hn называются гипотезами, если они образуют полную группу несовместных событий и Р(Hi) > 0, i = 1,n. Для полной группы событий характерно P(H1) + … + P(Hn) = 1. Пусть с опытом G связаны гипотезы Н1, …, Нn. Тогда вероятность появления произвольного события
А в опыте G выражается формулой полной вероятности: Формула полной вероятности позволяет выразить вероятность сложного события А через вероятности составляющих его более простых событий АHi, i=1,n. Данная формула используется в опытах, не сводящихся к схеме случаев. Пример: В торговую фирму поступают телевизоры от трёх фирм изготовителей в соотношении 2:5:3.
Телевизоры, поступающие от первой фирмы, требуют ремонта в течение гарантийного срока в 15% случаев, от второй и третьей – соответственно в 8% и 6% случаев. Найти вероятность того, что проданный телевизор потребует ремонта в течение гарантийного срока. Решение: Событие А заключается в том, что проданный телевизор потребовал гарантийного ремонта. Введем гипотезы: H1 - телевизор изготовлен первой фирмой,
Н2 и Н3. Вероятности этих гипотез 0,2, 0,5 и 0,3 соответственно. Условные вероятности тоже известны. P(A|H1) = 0,15; P(A|H2)=0,08; P(A|H3)=0,06. По формуле полной вероятности P(A) = 0,20,15 + 0,50,08 + 0,30,06 = 0,088. 10. Формула умножения. Формула Байеса. Примеры. Вероятность одновременного появления событий
A1, …, An выражается формулой умножения вероятностей: P(A1A2…ɨ 55;An)=P(A1)P(A2|A1)= 655;…P(An|A1…&am p;#61655;An-1), в которой вероятность каждого следующего по порядку события вычисляется при условии, что в рассматриваемом опыте произошли все предыдущие события. Пусть с опытом G связаны гипотезы H1, …, Hn. Предположим, что при проведении опыта произошло событие
А, вероятность которого была Р(А) > 0. Пусть до опыта G были известны лишь априорные вероятности гипотез Р(Hi), i=1,n, и соответствующие им условные вероятности события А. В этом случае условная вероятность P(Hi|A) гипотезы Hi при условии, что событие А произошло, вычисляется по формуле
Байеса: Даная формула вытекает из свойств условной вероятности. Рассмотрим пример: После осмотра больного врач считает, что равновозможно одно из двух заболеваний С или D. Для уточнения диагноза больного направляют на анализ, исход которого дает положительную реакцию при заболевании C в 30% случаев, а при заболевании D – 20% случаев. Анализ дал положительную реакцию.
Какое заболевание становится более вероятным? Решение: Событие А заключается в том, что анализ дал положительную реакцию. Гипотезы H1 и Н2 заключаются в том, что пациент болен заболеванием C или D соответственно. P(H1) = P(H2) = 0,5. P(A|H1) = 0,3; P(A|H2) = 0,2. Найдем полную вероятность. Р(H1|A)=0,15/0,25=0,6;
P(H2|A)=0,1/0,25=0,4. Более вероятно заболевание C. 11. Случайные величины. Закон распределения случайной величины. Дискретные случайные величины: ряд распределения и его свойства. Непрерывные случайные величины: функция плотности и ее свойства. Вероятность попадания случайной величины в множество.
Случайной величиной (СВ) Х() называется функция элементарного события такая, что событие {: X() x} принадлежит -алгебре F при любом действительном x. Значения x функции Х() называются реализациями СВ Х(). Законом распределения случайной величины называется любое правило (таблица, функция), позволяющее находить вероятности всех возможных событий, связанных с
СВ. СВ называется дискретной, если множество ее возможных значений конечно или счетно. Простейшей формой закона распределения дискретной СВ с конечным множеством значений является ряд распределения pk = (по определению) P{X = xk}, k=0,n, который задается аналитически или таблицей. В полученном ряду распределения сумма всех вероятностей равна единице.
СВ Х с непрерывной функцией распределения Fx(x) называется непрерывной. Плотностью распределения (плотностью вероятности) СВ Х называется неотрицательная кусочно-непрерывная функция fx(x), для которой при любом x R1 выполняется соотношение: Свойства fx(x): - f(x) 0 для всех x R1, т.е. выполняется условие неотрицательности плотности. - (Условие нормировки плотности). - -
F`(x)=f(x) в точках непрерывности плотности f(x). 12. Функция распределения случайной величины и ее свойства. Вероятность попадания случайной величины в промежуток. Связь функции распределения с плотностью вероятности (в непрерывном случае). Функция распределения F(x) является одной из форм закона распределения для
СВ всех типов и однозначно определяет СВ. Свойства F(x): - F(x) определена для всех x R1. - 0 F(x) 1 для всех x R1. - F(-) = 0; F() = 1. - F(х2) – F(х1) = Р{х1 < Х х2}, если х2 > х1. -
F(x) не убывает. - Если F(x) непрерывна, то F(х2) – F(х1) = Р{х1 Х х2}. - F`(x)=f(x) в точках непрерывности плотности f(x). 13. Квантиль и медиана случайной величины. Медиана симметричного распределения. Пример нахождения квантили нормальной случайной величины. Квантилью уровня p функции распределения F(x) СВ Х называется минимальное значение xp, при котором
функция распределения F(x) не меньше значения p, где p (0,1). Если функция распределения строго монотонна и непрерывна, то квантиль является единственным решением уравнения F(xp) = p. Квантиль уровня p = ½ называется медианой. Если плотность распределения существует, симметрична относительно оси Оу и строго положительна на связном множестве (отрезке или оси
Ох), то хр = -х1-р. Пример нахождения квантили нормальной СВ: Для нормальной случайной величины функция распределения F(X) = Ф((x-m)/) = ½ + Ф0((x-m)/). Для функции Ф0 (функции Лапласа) имеется таблица значений. Найдем квантиль уровня . Для этого найдем решение уравнения
F(xp) = . Ф0((x-m)/) = ¼. Воспользовавшись таблицей значений функции Лапласа получаем, что ((x-m)/) 0,675. Для стандартной нормальной СВ, у которой m=0 и 2=1 полученное значение 0,675 является квантилью уровня . Квантили стандартного нормального распределения: р Квантиль уровня р 0,01 -2,326348 0,025 -1,959964 0,05 -1,644854 0,1 -1,281552 0,3 -0,524401 0,4 -0,253347 0,5 0 0,6 0,253347 0,7 0,524401 0,8 0,841621 0,9 1,281552 0,95 1,644854 0,975 1,959964 0,99 2,326348 14.
Этапы определения математического ожидания. Вычисление математического ожидания в непрерывном и дискретном случаях. Пусть плотность f(x) непрерывной СВ Х такая, что сходится интеграл Тогда число mx = (по определению) M[X] = (по определению) будем называть математическим ожиданием (МО) непрерывной СВ Х. Для дискретной СВ Х с конечным числом значений математическое ожидание определяется следующим образом: , где pk = (по определению) P{X = xk}.
Аналогично определяется МО дискретной СВ со счетным числом значений. Пусть СВ Х непрерывна, а (x) – некоторая скалярная функция скалярного аргумента. Тогда для СВ Y = (по определению) (Х) МО СВ Y вычисляется следующим образом: Если интеграл абсолютно сходится. Если X – дискретная СВ с конечным множеством значений, то 15.
Вычисление математического ожидания в непрерывном и дискретном случаях. Примеры. Для непрерывной СВ Х: Для дискретной СВ Х с конечным числом значений: Примеры: Найти математическое ожидание СВ Y = Х2-3X+2 с учетом, что плотность вероятности СВ X на отрезке [-1;1] задана функцией f(x)=(3/2)x2 и равна нулю за пределами этого отрезка. Решение: Найдем математическое ожидание сразу по формуле.
Найти математическое ожидание дискретной СВ Х, ряд распределения которой имеет вид: Х 0 1 2 3 Р 0,1 0,2 0,3 0,4 Решение: Найдем математическое ожидание сразу по формуле. 16. Свойства математического ожидания: математическое ожидание константы, линейность, монотонность. - M[C]=C. Действительно, пусть Х – дискретная СВ, принимающая с вероятностью 1 значение C. Тогда M[X] = (по определению) =CP{X=C}=C. - M[CX]=CM[X], если
C – константа. Действительно, пусть, например, Х – непрерывная СВ. Тогда - М[X+C]=M[X]+C, если С – константа. Очевидно, что, например, для непрерывной СВ можно получить: - Монотонность заключается в том, что в случае X Y MXMY. 17. Свойства математического ожидания неотрицательной случайной величины: неравенство Маркова, невырожденность. Невырожденность математического ожидания заключается в том, что
в случае, если M[|X|]=0, P(X=0)=1. Событие Х=0 можно представить как событие, что |X|<1/n при любом n > 0. Обратное же событие заключается в том, что существует такое n, при котором |X|1/n. По свойству вероятности: Произведя необходимые замены получим следующее неравенство, называемое неравенством Маркова. Данное неравенство выполняется для всех Х 0. В общем случае константа 1/n имеет смысл любого положительного числа.
18. Формула умножения для математического ожидания. Математическое ожидание функции случайной величины. Математическое ожидание произведения двух независимых случайных величин есть произведение математических ожиданий каждой из СВ. В В общем случае M[XY] = M[X]M[Y] + cov(X,Y). Для независимых СВ ковариация равна нулю. Пусть
СВ Х непрерывна, а (x) – некоторая скалярная функция скалярного аргумента. Тогда для СВ Y = (по определению) (Х) МО СВ Y вычисляется следующим образом: Если интеграл абсолютно сходится. Если X – дискретная СВ с конечным множеством значений, то 19. Моментные характеристики случайных величин: второй начальный момент, дисперсия, среднеквадратическое
отклонение. Свойства дисперсии: неотрицательность, случай нулевой дисперсии, вычисление дисперсии через второй начальный момент, неравенство Ляпунова. Второй начальный момент M[X2] вычисляется подобно первому начальному моменту. Для его вычисления просто воспользоваться свойством МО функции СВ. Пусть СВ Х непрерывна, а (x) – некоторая скалярная функция скалярного аргумента.
Тогда для СВ Y = (по определению) (Х) МО СВ Y вычисляется следующим образом: Если интеграл абсолютно сходится. В нашем случае (x) = Х2. Если X – дискретная СВ с конечным множеством значений, то Дисперсия СВ есть разность второго момента и квадрата математического ожидания. Дисперсия характеризует среднее отклонение
СВ от МО. Среднеквадратическое отклонение есть квадратный корень из дисперсии СВ. Свойства дисперсии: - D[C] = 0; - D[CX] = C2DX; - D[CX+B]= C2DX. В случае, если D[X]=0, P(X=MX)=1. Доказывается по неравенству Чебышева. Неравенство Ляпунова: D[X] = M[X2] – (M[X])2 0. 20. Свойства дисперсии: вычисление дисперсии для линейной функции случайной величины, неравенство
Чебышева, «закон трех сигм». Способ вычисления дисперсии для линейной функции случайной величины вытекает из свойств дисперсии. D[kX+b] = D[kX] + D[b] + 2cov(kX,b) = kD[X]. Неравенство Чебышева: Пусть C = k(D[X])½. Тогда: Для k = 3 это неравенство имеет название «закона трёх сигм», и заключается в том, что вероятность того, что случайная величина отклонится от математического ожидания больше чем на три величины среднеквадратического
отклонения, равна 1/9. 21. Стандартные дискретные распределения: Бернулли, биномиальное, геометрическое. Биномиальное распределение: Дискретная СВ Х с реализациями xk = k, k=0,n, имеет биномиальное распределение с параметрами n и р (0,1), если вероятность события Х = хk определяется формулой Бернулли: g(t) = ||бином Ньютона|| = (q+peit)n. X ~
Bi(n,p). MX = np, DX = npq. Распределение Бернулли: Распределение Бернулли есть частный случай биномиального распределения при n = 1. Y ~ Be(p). MY = p, DY = pq. Геометрическое распределение: Геометри́ческое распределе́ние в теории вероятностей — это распределение дискретной случайной величины равной количеству испытаний случайного эксперимента до наблюдения первого «успеха».
Пусть Х1,…,Xn – конечная последовательность случайных величин с распределением Бернулли. Построим случайную величину Y = min{i | Xi=1} – 1 (Количество «неудач» до первого «успеха»). Распределение случайной величины Y называется геометрическим с вероятностью «успеха» p. Y ~ Geom(p). М[Y]=р/(1-qеt). D[Y]=q/р2 22. Пуассоновское распределение: теорема Пуассона. Теорема Пуассона: Между биномиальным распределением и распределением
Пуассона имеется следующая связь: Пусть n , p 0 и при этом np a = const. Тогда: Где . Доказывается эта теорема с использованием второго замечательного предела (1-a/n)n e-a при n . Дискретная СВ Х с реализациями xk = k, k = 0, 1, …, имеет распределение Пуассона с параметром a > 0, что символически записывается как
Х ~ П(а), если M[X] = D[X] = a. 23. Равномерное распределение. Пример: игла Бюффона. СВ Х распределена равномерно на отрезке [a,b] (Х ~ R(a,b)), если плотность вероятности имеет вид 1/(b-a) при х [a,b] и 0 при х [a,b]. Функция распределения имеет вид: М[X] = (a+b)/2; D[X] = (b-a)2/12; M[X2] = (b2+ba+a2)/3. Игла Бюффона.
Плоскость разграфлена параллельными прямыми, отстоящими друг от друга на расстоянии h. На плоскость наудачу бросается игла длиной l (l < h). Найти вероятность того, что игла пересечет какую-либо прямую. Решение: Рассмотрим середину иглы. Расстояние от нее до ближайшей прямой обозначим за А. А распределена равномерно на [0;h/2]. Угол между иглой и прямой обозначим за .
распределена равномерно на [0;/2]. Тогда условие пересечения иглой прямой запишется в виде А (l/2)sin. Площадь под графиком равна l/2. Искомая вероятность равна (по классической формуле) отношению площади под графиком к площади прямоугольника [0;/2]x[0;h/2]. P=2l/h. 24. Экспоненциальное распределение. Пример: распределение времени безотказной работы сложной технической
системы. СВ Х имеет экспоненциальное (показательное) распределение с параметром > 0, т. е. X ~ E(), если плотность вероятности имеет вид f(x) = exp(-x) при x > 0 и f(x) = 0 при x 0. Функция распределения СВ X ~ E() F(x) = 0 при x 0 и F(x) = 1 – exp[-x] при x > 0. M[X] = 1/,
D[X] = 1/2, M[X2] = 2/2. Пример: Время X безотказной работы станка имеет экспоненциальное распределение. Вероятность того, что станок откажет за 5 часов работы равна 0,39347. Найти М[X], D[X], M[X2]. Решение: Найдем параметр распределения . Для этого решим уравнение: 1 – exp[-5] = 0,39347. exp[-5] = 0,60653. -5&
#61548; = ln(0,60653) = -0,5. = 0,1. Теперь найдем необходимые моментные характеристики. M[X] = 1/ = 10, D[X] = 1/2 = 100, M[X2] = (M[X])2 + D[X] = 200. 25. Стандартное нормальное (гауссовское) распределение: теорема Муавра-Лапласа, функция Лапласа и ее свойства, «закон трех сигм» для стандартной нормальной величины. Пусть X ~ Bi(n,p). Тогда при n
Р((Хn – np)/(npq)½ с) Ф(c), где Ф(с) – функция Лапласа. В справочниках часто встречается также функция Лапласа Ф0(x). Ф(x) = ½ + Ф0(x). Рассмотрим некоторые свойства функции Ф0(x): - Ф0(-x) = -Ф0(x). - Ф0(x) принимает значения от -½ до ½. Функция Ф(x) обладает всеми свойствами функции распределения, так как является функцией распределения
стандартной нормальной случайной величины. Производная функции Ф((х-m)/) является функцией плотности вероятности нормальной СВ. . Для стандартной нормальной СВ m = 0, = 1. Параметр m равен МО нормальной СВ, а параметр есть квадратный корень из значения дисперсии нормальной СВ. Нормально распределенная СВ с большей вероятностью принимает значения, близкие к своему
МО, что описывает «закон трех сигм». Неравенство Чебышева: 26. Нормальное (гауссовское) распределение. Функция Лапласа (интеграл вероятностей) и ее свойства. Плотность и функция распределения нормального распределения. СВ X имеет нормальное (гауссовское) распределение с параметрами m и 2 > 0, т.е. X ~ N(m, 2), если Функция Ф(x) называется функцией
Лапласа. В справочниках часто встречается также функция Лапласа Ф0(x). Ф(x) = ½ + Ф0(x). Рассмотрим некоторые свойства функции Ф0(x): - Ф0(-x) = -Ф0(x). - Ф0(x) принимает значения от -½ до ½. Функция Ф(x) обладает всеми свойствами функции распределения. Параметр m равен МО нормальной СВ, а параметр есть квадратный корень из значения дисперсии
нормальной СВ. 27. Случайные векторы. Закон распределения случайного вектора. Функция совместного распределения двух случайных величин. Таблица распределения. Плотность распределения. Связь функции распределения случайного вектора с его плотностью. Двумерным случайным вектором (или двумерной СВ) Z = (по определению) col(X,Y) называется вектор, компонентами которого являются
СВ X = X() и Y = Y(), определенные на одном и том же пространстве элементарных событий . Функция F(x,y) = (по определению) Р({: Х() х}{: Y() у}) = (по определению) P{X x, Y y}, называется функцией распределения двумерной
СВ Z = col(x,y). Двумерная СВ Z = col(x,y) называется дискретной, если СВ Х и Y дискретны. Простейшим способом задания закона распределения дискретной двумерной СВ является таблица распределения. Функция распределения имеет вид: Где l – функция Хевисайда. Неотрицательная кусочно-непрерывная функция f(x,y) называется плотностью распределения (плотностью вероятности) двумерной СВ
Z = col(X,Y), если: где используется символическая запись для двойного интеграла по области D = (по определению) {t x, y}. Такая двумерная СВ называется непрерывной. 28. Определение частных законов распределения по совместному (в общем, дискретном и непрерывном случаях). Пример для дискретного случая. Рассмотрим общий случай: Пусть F(x,y) – функция распределения случайного вектора
Z = col(X,Y). В таком случае FX=F(x,+); FY=F(+,y). В дискретном случае задача упрощается: Решение находится по заданной таблице распределения. В непрерывном случае функция плотности распределения вероятности для СВ, составляющих вектор, находится следующим образом:
Пример: Предприятие имеет две поточные линии по сборке некоторой продукции. Технологические процессы на линиях связаны между собой. Пусть Х – количество единиц продукции, собранной за день первой линией, а Y – второй. Совместное распределение этих величин задано таблицей. Найти частные распределения СВ X и Y. Решение: YX 0 1 0 1/8 0 1 1/4 1/8 2 1/8 3/8
Найдем частные законы распределения. Для этого просуммируем соответствующие значения по столбцам или строкам. Получим: Для Х: X 0 1 0 1/2 1/2 Для Y: Y 0 1 2 0 1/8 3/8 1/2 29. Условия независимости случайных величин (в общем, дискретном и непрерывном случаях). Пример: независимость компонент случайного вектора, равномерно распределенного на прямоугольнике. СВ X и Y называются независимыми, если F(x,y) = FX(x)FY(y).
Пусть Z – случайный двумерный дискретный вектор. Дискретные СВ X и Y, составляющие вектор Z, независимы тогда и только тогда, когда для всех i=0,n; j=0,m P{X = xi, Y = yi} = P{X = xi}P{Y = yi}. Для независимости непрерывных СВ Х и Y достаточно, чтобы выполнялось равенство f(x,y) = fX(x)fY(y). Пример: Случайный вектор Z распределен равномерно на прямоугольнике [1,1]x[2,3] и имеет функцию распределения
½(xy-x-y+1) на площади прямоугольника. Независимы ли его компоненты? Решение: Вектор по условию составлен из двух равномерно распределенных случайных величин X и Y. X ~ R(1,2); Y ~ R(1,3). fX(x) = 1/(2-1) = 1 при X [1,2]. fY(y) = ½ при Y [1,3]. Если компоненты X и Y независимы, то f(x,y) = fX(x)fY(y).
Получаем следующее: Теперь найдем функцию распределения, проинтегрировав f(x,y) по области прямоугольника. При Х, Y [1,1]x[2,3]. При X > 2, Y > 3 F(x,y) = 1. При X < 1, Y < 1 F(x,y) = 0. Полученная функция совпадает с заданной в условии. Компоненты независимы. 30. Моментные характеристики пары случайных величин: смешанный второй начальный момент, ковариация, коэффициент корреляции, ковариационная матрица.
Свойства ковариации: вычисление ковариации через смешанный второй начальный момент, симметричность, линейность. Смешанный второй начальный момент есть математическое ожидание произведения компонент вектора, т.е. XY = M[XY]. Если произвести преобразование по формуле для зависимых СВ, то M[XY] = (по определению) kXY + M[X]M[Y], где kXY – ковариация. Ковариацией (корреляционным моментом) kXY СВ X и Y называется второй центральный смешанный момент.
kXY = (по определению) M[(X-M[X])(Y-M[Y])]. Ковариация непрерывных СВ X и Y равна: Ковариация нормированных СВ называется коэффициентом корреляции. rXY=kXY/XY. Ковариационная матрица: Свойства ковариации: - cov(Ax,By)=ABcov(x,y). cov(x,y) = cov(y,x). 31. Формула дисперсии суммы (разности) двух величин. Неравенство Коши-Шварца для ковариации. Пусть MX=MY=0.
M[XY] = 0. Неравенство Коши-Шварца: 32. Некоррелированность и линейная зависимость двух случайных величин и их связь со свойствами ковариации и коэффициента корреляции. СВ X и Y называются некоррелированными, если cov(X,Y)=0. Из независимости СВ следует их некоррелированность, однако обратное утверждение в общем случае ложно. Как пример можно разобрать функциональную зависимость
Y = X2, где X ~ R(-a,a). Тогда ковариация между X и Y равна: Величины не коррелированны, но связаны функциональной зависимостью. Коэффициент корреляции: Заметим, что |rXY| 1 (следует из неравенства Коши-Шварца). Если |rXY| = 1, то случайные величины X, Y линейно зависимы, т.е. с1, с2
R, с12+с22 > 0: с1X + с2Y = 0. Линейная зависимость случайных величин X и Y или, что то же самое, их коллинеарность являются частным случаем их функциональной зависимости.
! |
Как писать рефераты Практические рекомендации по написанию студенческих рефератов. |
! | План реферата Краткий список разделов, отражающий структура и порядок работы над будующим рефератом. |
! | Введение реферата Вводная часть работы, в которой отражается цель и обозначается список задач. |
! | Заключение реферата В заключении подводятся итоги, описывается была ли достигнута поставленная цель, каковы результаты. |
! | Оформление рефератов Методические рекомендации по грамотному оформлению работы по ГОСТ. |
→ | Виды рефератов Какими бывают рефераты по своему назначению и структуре. |