Реферат по предмету "Математика"


Шпаргалки по Теории вероятностей и математической статистике

1. Понятие случайности, изучаемое теорией вероятностей. Частотное определение вероятности. Теория вероятностей – раздел математики, изучающий закономерности случайных явлений, наблюдаемых при многократном повторении опыта. Под опытом G понимается воспроизведение какого-либо комплекса условий для наблюдения исследуемого явления (события). Обычно считается, что событие случайно в опыте, если при неоднократном воспроизведении этого


опыта оно иногда происходит, а иногда – нет, причем нельзя заранее предсказать возможный исход (событие) этого опыта. При этом наблюдается свойство устойчивости частоты случайного события: с увеличением числа повторений опыта значение частоты появления случайного события стабилизируется около некоторого случайного числа. Пусть при n-кратном повторении опыта G событие А произошло mА раз. Частотой Wn(А) события А называется соотношение


Wn(A) = mА/n. Cвойства частоты Wn(А): - Wn(А)  0, так как mА  0 и n > 0; - Wn(А)  1, так как mА  n; - Если при n-кратном повторении опыта несовместные события A и B появились соответственно mА и mB раз, то Априори (заранее, до опыта) частота Wn(A) является случайной, т.е. нельзя предсказать точное ее значение до проведения данной серии из n


опытов. Однако природа случайных событий такова, что на практике наблюдается эффект устойчивости частот. Его суть заключается в том, что при увеличении числа опытов значение частоты практически перестает быть случайным и стабилизируется около некоторого неслучайного числа Р(А), соответствующего данному конкретному событию А в опыте G. Число Р(А) первоначально при становлении теории вероятностей называлось вероятностью события


A в опыте G. Введенное понятие указывает на то, что вероятность Р(А) характеризует частоту появления события А при многократном повторении опыта G. 2. Основные понятия теории вероятностей на основе аксиоматического подхода: пространство элементарных исходов, алгебра случайных событий, вероятность и аксиомы, которым она подчиняется. Алгебра событий F, включающая в себя результаты сложения и умножения счетного числа своих элементов


(т.е. замкнутая относительно этих операций), называется -алгеброй. Элементы -алгебры (т.е. подмножества пространства ) называются случайными событиями (или просто событиями). Вероятностью события А называется числовая функция Р(А), определенная на -алгебре и удовлетворяющая следующим четырем аксиомам теории вероятностей: - Каждому событию А  F ставится в соответствие неотрицательное число


Р(А), т. е. Р(А)  0 для любого А  F. - Вероятность достоверного события равна единице, т. е. Р() = 1. - Для любых несовместных событий А и В из F справедливо равенство Р(А + В) = Р(А) + Р(В). - Для любой убывающей последовательности А1 


А2  …  Аn  … событий из F, такой что A1A2A3   An  …=  , имеет место равенство Аксиоматические свойства вероятности: - Если Р(А) = 1, но А не равно , то говорят, что событие А в опыте G происходит почти наверное. - Если Р(А) = 0, то говорят, что событие


А почти никогда не происходит в опыте G. 3. Простейшие свойства вероятности: монотонность, формула сложения, вероятность разности событий. Если А  В, то Р(А)  Р(В), т.е. вероятность монотонна. Представим множество В как В = А + BA (см. рисунок 1). По построению А(ВА)=, следовательно, события


А и ВА несовместны. Поэтому по аксиомам конечной аддитивности* и неотрицательности вероятности имеем Р(В) = Р(А) + Р(ВА)  Р(А). Р(А)  1 для любого А  F. Так как A  , то из свойства монотонности и аксиомы нормировки вероятности следует Р(А)  Р() = 1. Формула сложения и вероятность разности событий: Р(А+В) =


Р(А) + Р(В) – Р(АВ) для любых А, В  F. Представим А в виде А = АВ + АВ (см. рисунок 2). Очевидно, что события АВ и АВ несовместны. Тогда по аксиоме конечной аддитивности вероятности имеем Р(А) = Р(АВ) + Р(АВ),откуда Р(АВ)=Р(А)-Р(АВ). Аналогичным образом поступим с событием А+В. Имеем А+В = В + АВ, причем события В и АВ несовместны.


Тогда из аксиомы конечной аддитивности вероятности следует Р(А+В)=Р(В)+Р(АВ). Подставляя в данное выражение формулу для Р(АВ), получаем требуемое. Р(А+В)=Р(А)+Р(В)-Р(АВ). * Аксиома: Для любых несовместных событий А и В из F справедливо равенство Р(А + В) = Р(А) + Р(В). 4. Классическая схема. Вычисление вероятностей исходов в трех комбинаторных


моделях. Если множество исходов некоторого опыта конечно и состоит из n равновозможных попарно несовместных событий, составляющих полную группу, то вероятность события Р(А) = m(A)/n, где m(A) – число благоприятных для этого события исходов. В геометрической интерпретации вероятность попадания в область А, включенную в В можно вычислить как отношение меры области


А к мере области В. Для решения некоторых задач удобно пользоваться комбинаторными моделями. Формула перестановки имеет смысл числа вариантов, с помощью которых можно расположить k элементов. N = k! Формула сочетаний имеет смысл числа способов выбрать r элементов из k без учета порядка. Формула размещений имеет смысл числа способов выбрать r элементов из k с учетом порядка, последовательности, иерархии. 5. Классическая схема. Примеры решения задачи о совпадениях, расчета вероятности выигрыша


в лотерее. Если множество исходов некоторого опыта конечно и состоит из n равновозможных попарно несовместных событий, составляющих полную группу, то вероятность события Р(А) = m(A)/n, где m(A) – число благоприятных для этого события исходов. - Набирая номер телефона, абонент забыл последние две цифры и, помня лишь, что цифры различны, набрал их на удачу. Какова вероятность того, что набран нужный номер?


Решение: Общее число исходов Благоприятный исход один – необходимые цифры набраны в необходимом порядке. Вероятность того, что набран нужный номер, легко рассчитать по классической формуле . - В розыгрыше лотереи участвуют 100 билетов, среди которых 25 выигрышных. Студент МАИ приобрел три билета. Какова вероятность его выигрыша? Решение: студент МАИ выиграет в случае, если хотя бы один из билетов окажется выигрышным.


Проще рассмотреть противоположное событие (студент проиграет). Для нового события благоприятными являются исходов. Общее число исходов тоже вычисляется по формуле сочетаний: Вероятность выигрыша студента МАИ: 6. Независимые события. Свойства независимых событий. Примеры: расчет надежности.


События А и В являются называются независимыми, если Р(АВ) = Р(А)Р(В). В противном случае события называются зависимыми. Если любые два события из А1, …, Аn независимы, то события А1, …, Аn называются независимыми в совокупности, или просто независимыми, если для любых k=2,n и 1  i1 < … < ik  n верно равенство


Р(Аi1…Aik)=P(Аi1 ) …P(Aik). Независимость событий не следует из их попарной независимости, но обратное утверждение верно. Свойства: - Если события А и В независимы, то независимы также события А и В, А и В, А и В. Для событий А и В имеем Поэтому - Если несовместные события


А и В имеют ненулевые вероятности, то они зависимы. Действительно, по условию АВ = . Если бы А и В были независимыми, тогда было бы верно Р(А)Р(В) = Р(АВ) = Р() = 0, но левая часть равенства по условию нулю не равна. Следовательно, А и В зависимы. Расчет надежности.


Задача*: Система состоит из четырех элементов, надежности которых равны p1=0,8; p2=0,7; p3=0,6; p4=0,5. Элементы отказывают независимо друг от друга. Найти надежность схемы, приведенной на рисунке. Решение: Перейдем к противоположному событию. Система откажет в случае, если откажут одновременно 3ий и 4ый элементы или 4ый, 1ый и 2ой элементы. Необходимо также учесть, что если отказали 3ий и 4ый элементы, то состояние 1ого и 2ого может быть любым. Поэтому вероятность отказа можно вычислить следующим образом:


*Задача 43а на странице 46 учебника Кибзуна. 7. Схема и формула Бернулли. Свойства биномиальных коэффициентов. Рассмотрим последовательность из n независимых испытаний (опытов) с двумя исходами (событиями) А и А, которые называются соответственно «успехом» и «неуспехом», причем Р(А) = p  (0,1), Р(А) = q = (по определению) 1 – p. Построенная схема испытаний называется схемой


Бернулли, а сам опыт – опытом Бернулли. Пусть опыт G производится по схеме Бернулли. Тогда вероятность Pn(k) события An(k), состоящего в том, что при n повторениях опыта G событие А произойдет ровно k раз, вычисляется по формуле Бернулли: Докажем справедливость данной формулы. Пусть опыт


G был проведен три раза и необходимо найти вероятность того, что успешный результат будет получен один раз. В таком случае по формуле Бернулли получаем, что вероятность этого события равна 3pq2. Теперь представим это событие в виде суммы несовместных событий A=A1 A2A3+A1ɨ 55;A2A3+A1&# 61655;A2= 656;A3.


Поскольку события несовместны, P(A) = P(A1 A2A3) + P(A1A2᠕ 5;A3) + P(A1A2᠕ 5;A3). Так как события независимы, вероятность их произведения равна произведению вероятностей. Р(А)=p, P(A)=q. Тогда Р(А) = qqp + qpq + pqq = 3(pqq)=3pq2.


Результаты совпадают. 8. Условная вероятность. Пример вычисления условной вероятности в классической схеме. Свойства условной вероятности. Условной вероятностью Р(А|B) события А относительно события В, если Р(В) > 0, называется вероятность осуществления события А при условии, что событие В уже произошло. Условная вероятность определяется формулой


Р(А|B) = (по определению) P(AB)/P(B). Рассмотрим опыт G, сводящийся к схеме случаев, и предположим, что событиям А, В, АВ благоприятствуют соответственно mA, mB > 0, mAB случаев из всех n возможных. Допустим, что событие В уже произошло. Это означает, что из всех возможных n случаев реально могло появиться только mB случаев,


причем из них только mAB случаев благоприятствуют событию А. Тогда Р(А|B) = mAB/mB. P(AB)=P(A)P(B|A)=P(B)P(A|B). Свойства условной вероятности: - Р(А|) = Р(А). - Если события А и В несовместны, то Р(А|B)=0. - Если события А и В независимы, то Р(А|B) = P(A). События независимы тогда и только тогда, когда условная


вероятность совпадает с безусловной. - Условная вероятность обладает всеми свойствами вероятности. - Если В  А, то Р(А|B)=1. Пример: Пусть опыт G состоит в подбрасывании монеты. Монету подбросили. В первый раз выпала решка. Какова вероятность того, что и во второй раз выпадет решка? Решение: Обозначим событие А (в первый раз выпала решка) и событие


В (во второй раз выпала решка). Р(B|A)=P(AB)/P(A)=(1/4)/(1/2)=1/2. Обратим внимание, что Р(В|A)=P(B), что говорит о том, что события А и В независимы. 9. Полная группа гипотез. Формула полной вероятности. Пример. События H1, …, Hn в опыте G образуют полную группу несовместных событий, если они попарно несовместны (HiHj =  i  j) и в результате опыта произойдет хотя бы одно из событий


Hi, i = 1,n, т.е. H1+…+Hn=. События H1, …, Hn называются гипотезами, если они образуют полную группу несовместных событий и Р(Hi) > 0, i = 1,n. Для полной группы событий характерно P(H1) + … + P(Hn) = 1. Пусть с опытом G связаны гипотезы Н1, …, Нn. Тогда вероятность появления произвольного события


А в опыте G выражается формулой полной вероятности: Формула полной вероятности позволяет выразить вероятность сложного события А через вероятности составляющих его более простых событий АHi, i=1,n. Данная формула используется в опытах, не сводящихся к схеме случаев. Пример: В торговую фирму поступают телевизоры от трёх фирм изготовителей в соотношении 2:5:3.


Телевизоры, поступающие от первой фирмы, требуют ремонта в течение гарантийного срока в 15% случаев, от второй и третьей – соответственно в 8% и 6% случаев. Найти вероятность того, что проданный телевизор потребует ремонта в течение гарантийного срока. Решение: Событие А заключается в том, что проданный телевизор потребовал гарантийного ремонта. Введем гипотезы: H1 - телевизор изготовлен первой фирмой,


Н2 и Н3. Вероятности этих гипотез 0,2, 0,5 и 0,3 соответственно. Условные вероятности тоже известны. P(A|H1) = 0,15; P(A|H2)=0,08; P(A|H3)=0,06. По формуле полной вероятности P(A) = 0,20,15 + 0,50,08 + 0,30,06 = 0,088. 10. Формула умножения. Формула Байеса. Примеры. Вероятность одновременного появления событий


A1, …, An выражается формулой умножения вероятностей: P(A1A2…ɨ 55;An)=P(A1)P(A2|A1)= 655;…P(An|A1…&am p;#61655;An-1), в которой вероятность каждого следующего по порядку события вычисляется при условии, что в рассматриваемом опыте произошли все предыдущие события. Пусть с опытом G связаны гипотезы H1, …, Hn. Предположим, что при проведении опыта произошло событие


А, вероятность которого была Р(А) > 0. Пусть до опыта G были известны лишь априорные вероятности гипотез Р(Hi), i=1,n, и соответствующие им условные вероятности события А. В этом случае условная вероятность P(Hi|A) гипотезы Hi при условии, что событие А произошло, вычисляется по формуле


Байеса: Даная формула вытекает из свойств условной вероятности. Рассмотрим пример: После осмотра больного врач считает, что равновозможно одно из двух заболеваний С или D. Для уточнения диагноза больного направляют на анализ, исход которого дает положительную реакцию при заболевании C в 30% случаев, а при заболевании D – 20% случаев. Анализ дал положительную реакцию.


Какое заболевание становится более вероятным? Решение: Событие А заключается в том, что анализ дал положительную реакцию. Гипотезы H1 и Н2 заключаются в том, что пациент болен заболеванием C или D соответственно. P(H1) = P(H2) = 0,5. P(A|H1) = 0,3; P(A|H2) = 0,2. Найдем полную вероятность. Р(H1|A)=0,15/0,25=0,6;


P(H2|A)=0,1/0,25=0,4. Более вероятно заболевание C. 11. Случайные величины. Закон распределения случайной величины. Дискретные случайные величины: ряд распределения и его свойства. Непрерывные случайные величины: функция плотности и ее свойства. Вероятность попадания случайной величины в множество.


Случайной величиной (СВ) Х() называется функция элементарного события  такая, что событие {: X()  x} принадлежит -алгебре F при любом действительном x. Значения x функции Х() называются реализациями СВ Х(). Законом распределения случайной величины называется любое правило (таблица, функция), позволяющее находить вероятности всех возможных событий, связанных с


СВ. СВ называется дискретной, если множество ее возможных значений конечно или счетно. Простейшей формой закона распределения дискретной СВ с конечным множеством значений является ряд распределения pk = (по определению) P{X = xk}, k=0,n, который задается аналитически или таблицей. В полученном ряду распределения сумма всех вероятностей равна единице.


СВ Х с непрерывной функцией распределения Fx(x) называется непрерывной. Плотностью распределения (плотностью вероятности) СВ Х называется неотрицательная кусочно-непрерывная функция fx(x), для которой при любом x  R1 выполняется соотношение: Свойства fx(x): - f(x)  0 для всех x  R1, т.е. выполняется условие неотрицательности плотности. - (Условие нормировки плотности). - -


F`(x)=f(x) в точках непрерывности плотности f(x). 12. Функция распределения случайной величины и ее свойства. Вероятность попадания случайной величины в промежуток. Связь функции распределения с плотностью вероятности (в непрерывном случае). Функция распределения F(x) является одной из форм закона распределения для


СВ всех типов и однозначно определяет СВ. Свойства F(x): - F(x) определена для всех x  R1. - 0  F(x)  1 для всех x  R1. - F(-) = 0; F() = 1. - F(х2) – F(х1) = Р{х1 < Х  х2}, если х2 > х1. -


F(x) не убывает. - Если F(x) непрерывна, то F(х2) – F(х1) = Р{х1  Х  х2}. - F`(x)=f(x) в точках непрерывности плотности f(x). 13. Квантиль и медиана случайной величины. Медиана симметричного распределения. Пример нахождения квантили нормальной случайной величины. Квантилью уровня p функции распределения F(x) СВ Х называется минимальное значение xp, при котором


функция распределения F(x) не меньше значения p, где p  (0,1). Если функция распределения строго монотонна и непрерывна, то квантиль является единственным решением уравнения F(xp) = p. Квантиль уровня p = ½ называется медианой. Если плотность распределения существует, симметрична относительно оси Оу и строго положительна на связном множестве (отрезке или оси


Ох), то хр = -х1-р. Пример нахождения квантили нормальной СВ: Для нормальной случайной величины функция распределения F(X) = Ф((x-m)/) = ½ + Ф0((x-m)/). Для функции Ф0 (функции Лапласа) имеется таблица значений. Найдем квантиль уровня . Для этого найдем решение уравнения


F(xp) = . Ф0((x-m)/) = ¼. Воспользовавшись таблицей значений функции Лапласа получаем, что ((x-m)/)  0,675. Для стандартной нормальной СВ, у которой m=0 и 2=1 полученное значение 0,675 является квантилью уровня . Квантили стандартного нормального распределения: р Квантиль уровня р 0,01 -2,326348 0,025 -1,959964 0,05 -1,644854 0,1 -1,281552 0,3 -0,524401 0,4 -0,253347 0,5 0 0,6 0,253347 0,7 0,524401 0,8 0,841621 0,9 1,281552 0,95 1,644854 0,975 1,959964 0,99 2,326348 14.


Этапы определения математического ожидания. Вычисление математического ожидания в непрерывном и дискретном случаях. Пусть плотность f(x) непрерывной СВ Х такая, что сходится интеграл Тогда число mx = (по определению) M[X] = (по определению) будем называть математическим ожиданием (МО) непрерывной СВ Х. Для дискретной СВ Х с конечным числом значений математическое ожидание определяется следующим образом: , где pk = (по определению) P{X = xk}.


Аналогично определяется МО дискретной СВ со счетным числом значений. Пусть СВ Х непрерывна, а (x) – некоторая скалярная функция скалярного аргумента. Тогда для СВ Y = (по определению) (Х) МО СВ Y вычисляется следующим образом: Если интеграл абсолютно сходится. Если X – дискретная СВ с конечным множеством значений, то 15.


Вычисление математического ожидания в непрерывном и дискретном случаях. Примеры. Для непрерывной СВ Х: Для дискретной СВ Х с конечным числом значений: Примеры: Найти математическое ожидание СВ Y = Х2-3X+2 с учетом, что плотность вероятности СВ X на отрезке [-1;1] задана функцией f(x)=(3/2)x2 и равна нулю за пределами этого отрезка. Решение: Найдем математическое ожидание сразу по формуле.


Найти математическое ожидание дискретной СВ Х, ряд распределения которой имеет вид: Х 0 1 2 3 Р 0,1 0,2 0,3 0,4 Решение: Найдем математическое ожидание сразу по формуле. 16. Свойства математического ожидания: математическое ожидание константы, линейность, монотонность. - M[C]=C. Действительно, пусть Х – дискретная СВ, принимающая с вероятностью 1 значение C. Тогда M[X] = (по определению) =CP{X=C}=C. - M[CX]=CM[X], если


C – константа. Действительно, пусть, например, Х – непрерывная СВ. Тогда - М[X+C]=M[X]+C, если С – константа. Очевидно, что, например, для непрерывной СВ можно получить: - Монотонность заключается в том, что в случае X Y MXMY. 17. Свойства математического ожидания неотрицательной случайной величины: неравенство Маркова, невырожденность. Невырожденность математического ожидания заключается в том, что


в случае, если M[|X|]=0, P(X=0)=1. Событие Х=0 можно представить как событие, что |X|<1/n при любом n > 0. Обратное же событие заключается в том, что существует такое n, при котором |X|1/n. По свойству вероятности: Произведя необходимые замены получим следующее неравенство, называемое неравенством Маркова. Данное неравенство выполняется для всех Х  0. В общем случае константа 1/n имеет смысл любого положительного числа.


18. Формула умножения для математического ожидания. Математическое ожидание функции случайной величины. Математическое ожидание произведения двух независимых случайных величин есть произведение математических ожиданий каждой из СВ. В В общем случае M[XY] = M[X]M[Y] + cov(X,Y). Для независимых СВ ковариация равна нулю. Пусть


СВ Х непрерывна, а (x) – некоторая скалярная функция скалярного аргумента. Тогда для СВ Y = (по определению) (Х) МО СВ Y вычисляется следующим образом: Если интеграл абсолютно сходится. Если X – дискретная СВ с конечным множеством значений, то 19. Моментные характеристики случайных величин: второй начальный момент, дисперсия, среднеквадратическое


отклонение. Свойства дисперсии: неотрицательность, случай нулевой дисперсии, вычисление дисперсии через второй начальный момент, неравенство Ляпунова. Второй начальный момент M[X2] вычисляется подобно первому начальному моменту. Для его вычисления просто воспользоваться свойством МО функции СВ. Пусть СВ Х непрерывна, а (x) – некоторая скалярная функция скалярного аргумента.


Тогда для СВ Y = (по определению) (Х) МО СВ Y вычисляется следующим образом: Если интеграл абсолютно сходится. В нашем случае (x) = Х2. Если X – дискретная СВ с конечным множеством значений, то Дисперсия СВ есть разность второго момента и квадрата математического ожидания. Дисперсия характеризует среднее отклонение


СВ от МО. Среднеквадратическое отклонение есть квадратный корень из дисперсии СВ. Свойства дисперсии: - D[C] = 0; - D[CX] = C2DX; - D[CX+B]= C2DX. В случае, если D[X]=0, P(X=MX)=1. Доказывается по неравенству Чебышева. Неравенство Ляпунова: D[X] = M[X2] – (M[X])2  0. 20. Свойства дисперсии: вычисление дисперсии для линейной функции случайной величины, неравенство


Чебышева, «закон трех сигм». Способ вычисления дисперсии для линейной функции случайной величины вытекает из свойств дисперсии. D[kX+b] = D[kX] + D[b] + 2cov(kX,b) = kD[X]. Неравенство Чебышева: Пусть C = k(D[X])½. Тогда: Для k = 3 это неравенство имеет название «закона трёх сигм», и заключается в том, что вероятность того, что случайная величина отклонится от математического ожидания больше чем на три величины среднеквадратического


отклонения, равна 1/9. 21. Стандартные дискретные распределения: Бернулли, биномиальное, геометрическое. Биномиальное распределение: Дискретная СВ Х с реализациями xk = k, k=0,n, имеет биномиальное распределение с параметрами n и р  (0,1), если вероятность события Х = хk определяется формулой Бернулли: g(t) = ||бином Ньютона|| = (q+peit)n. X ~


Bi(n,p). MX = np, DX = npq. Распределение Бернулли: Распределение Бернулли есть частный случай биномиального распределения при n = 1. Y ~ Be(p). MY = p, DY = pq. Геометрическое распределение: Геометри́ческое распределе́ние в теории вероятностей — это распределение дискретной случайной величины равной количеству испытаний случайного эксперимента до наблюдения первого «успеха».


Пусть Х1,…,Xn – конечная последовательность случайных величин с распределением Бернулли. Построим случайную величину Y = min{i | Xi=1} – 1 (Количество «неудач» до первого «успеха»). Распределение случайной величины Y называется геометрическим с вероятностью «успеха» p. Y ~ Geom(p). М[Y]=р/(1-qеt). D[Y]=q/р2 22. Пуассоновское распределение: теорема Пуассона. Теорема Пуассона: Между биномиальным распределением и распределением


Пуассона имеется следующая связь: Пусть n  , p  0 и при этом np  a = const. Тогда: Где . Доказывается эта теорема с использованием второго замечательного предела (1-a/n)n  e-a при n  . Дискретная СВ Х с реализациями xk = k, k = 0, 1, …, имеет распределение Пуассона с параметром a > 0, что символически записывается как


Х ~ П(а), если M[X] = D[X] = a. 23. Равномерное распределение. Пример: игла Бюффона. СВ Х распределена равномерно на отрезке [a,b] (Х ~ R(a,b)), если плотность вероятности имеет вид 1/(b-a) при х  [a,b] и 0 при х  [a,b]. Функция распределения имеет вид: М[X] = (a+b)/2; D[X] = (b-a)2/12; M[X2] = (b2+ba+a2)/3. Игла Бюффона.


Плоскость разграфлена параллельными прямыми, отстоящими друг от друга на расстоянии h. На плоскость наудачу бросается игла длиной l (l < h). Найти вероятность того, что игла пересечет какую-либо прямую. Решение: Рассмотрим середину иглы. Расстояние от нее до ближайшей прямой обозначим за А. А распределена равномерно на [0;h/2]. Угол между иглой и прямой обозначим за . 


распределена равномерно на [0;/2]. Тогда условие пересечения иглой прямой запишется в виде А  (l/2)sin. Площадь под графиком равна l/2. Искомая вероятность равна (по классической формуле) отношению площади под графиком к площади прямоугольника [0;/2]x[0;h/2]. P=2l/h. 24. Экспоненциальное распределение. Пример: распределение времени безотказной работы сложной технической


системы. СВ Х имеет экспоненциальное (показательное) распределение с параметром  > 0, т. е. X ~ E(), если плотность вероятности имеет вид f(x) = exp(-x) при x > 0 и f(x) = 0 при x  0. Функция распределения СВ X ~ E() F(x) = 0 при x  0 и F(x) = 1 – exp[-x] при x > 0. M[X] = 1/,


D[X] = 1/2, M[X2] = 2/2. Пример: Время X безотказной работы станка имеет экспоненциальное распределение. Вероятность того, что станок откажет за 5 часов работы равна 0,39347. Найти М[X], D[X], M[X2]. Решение: Найдем параметр распределения . Для этого решим уравнение: 1 – exp[-5] = 0,39347. exp[-5] = 0,60653. -5&


#61548; = ln(0,60653) = -0,5.  = 0,1. Теперь найдем необходимые моментные характеристики. M[X] = 1/ = 10, D[X] = 1/2 = 100, M[X2] = (M[X])2 + D[X] = 200. 25. Стандартное нормальное (гауссовское) распределение: теорема Муавра-Лапласа, функция Лапласа и ее свойства, «закон трех сигм» для стандартной нормальной величины. Пусть X ~ Bi(n,p). Тогда при n  


Р((Хn – np)/(npq)½  с)  Ф(c), где Ф(с) – функция Лапласа. В справочниках часто встречается также функция Лапласа Ф0(x). Ф(x) = ½ + Ф0(x). Рассмотрим некоторые свойства функции Ф0(x): - Ф0(-x) = -Ф0(x). - Ф0(x) принимает значения от -½ до ½. Функция Ф(x) обладает всеми свойствами функции распределения, так как является функцией распределения


стандартной нормальной случайной величины. Производная функции Ф((х-m)/) является функцией плотности вероятности нормальной СВ. . Для стандартной нормальной СВ m = 0,  = 1. Параметр m равен МО нормальной СВ, а параметр  есть квадратный корень из значения дисперсии нормальной СВ. Нормально распределенная СВ с большей вероятностью принимает значения, близкие к своему


МО, что описывает «закон трех сигм». Неравенство Чебышева: 26. Нормальное (гауссовское) распределение. Функция Лапласа (интеграл вероятностей) и ее свойства. Плотность и функция распределения нормального распределения. СВ X имеет нормальное (гауссовское) распределение с параметрами m и 2 > 0, т.е. X ~ N(m, 2), если Функция Ф(x) называется функцией


Лапласа. В справочниках часто встречается также функция Лапласа Ф0(x). Ф(x) = ½ + Ф0(x). Рассмотрим некоторые свойства функции Ф0(x): - Ф0(-x) = -Ф0(x). - Ф0(x) принимает значения от -½ до ½. Функция Ф(x) обладает всеми свойствами функции распределения. Параметр m равен МО нормальной СВ, а параметр  есть квадратный корень из значения дисперсии


нормальной СВ. 27. Случайные векторы. Закон распределения случайного вектора. Функция совместного распределения двух случайных величин. Таблица распределения. Плотность распределения. Связь функции распределения случайного вектора с его плотностью. Двумерным случайным вектором (или двумерной СВ) Z = (по определению) col(X,Y) называется вектор, компонентами которого являются


СВ X = X() и Y = Y(), определенные на одном и том же пространстве  элементарных событий . Функция F(x,y) = (по определению) Р({: Х()  х}{: Y()  у}) = (по определению) P{X  x, Y  y}, называется функцией распределения двумерной


СВ Z = col(x,y). Двумерная СВ Z = col(x,y) называется дискретной, если СВ Х и Y дискретны. Простейшим способом задания закона распределения дискретной двумерной СВ является таблица распределения. Функция распределения имеет вид: Где l – функция Хевисайда. Неотрицательная кусочно-непрерывная функция f(x,y) называется плотностью распределения (плотностью вероятности) двумерной СВ


Z = col(X,Y), если: где используется символическая запись для двойного интеграла по области D = (по определению) {t  x,   y}. Такая двумерная СВ называется непрерывной. 28. Определение частных законов распределения по совместному (в общем, дискретном и непрерывном случаях). Пример для дискретного случая. Рассмотрим общий случай: Пусть F(x,y) – функция распределения случайного вектора


Z = col(X,Y). В таком случае FX=F(x,+); FY=F(+,y). В дискретном случае задача упрощается: Решение находится по заданной таблице распределения. В непрерывном случае функция плотности распределения вероятности для СВ, составляющих вектор, находится следующим образом:


Пример: Предприятие имеет две поточные линии по сборке некоторой продукции. Технологические процессы на линиях связаны между собой. Пусть Х – количество единиц продукции, собранной за день первой линией, а Y – второй. Совместное распределение этих величин задано таблицей. Найти частные распределения СВ X и Y. Решение: YX 0 1 0 1/8 0 1 1/4 1/8 2 1/8 3/8


Найдем частные законы распределения. Для этого просуммируем соответствующие значения по столбцам или строкам. Получим: Для Х: X 0 1 0 1/2 1/2 Для Y: Y 0 1 2 0 1/8 3/8 1/2 29. Условия независимости случайных величин (в общем, дискретном и непрерывном случаях). Пример: независимость компонент случайного вектора, равномерно распределенного на прямоугольнике. СВ X и Y называются независимыми, если F(x,y) = FX(x)FY(y).


Пусть Z – случайный двумерный дискретный вектор. Дискретные СВ X и Y, составляющие вектор Z, независимы тогда и только тогда, когда для всех i=0,n; j=0,m P{X = xi, Y = yi} = P{X = xi}P{Y = yi}. Для независимости непрерывных СВ Х и Y достаточно, чтобы выполнялось равенство f(x,y) = fX(x)fY(y). Пример: Случайный вектор Z распределен равномерно на прямоугольнике [1,1]x[2,3] и имеет функцию распределения


½(xy-x-y+1) на площади прямоугольника. Независимы ли его компоненты? Решение: Вектор по условию составлен из двух равномерно распределенных случайных величин X и Y. X ~ R(1,2); Y ~ R(1,3). fX(x) = 1/(2-1) = 1 при X  [1,2]. fY(y) = ½ при Y  [1,3]. Если компоненты X и Y независимы, то f(x,y) = fX(x)fY(y).


Получаем следующее: Теперь найдем функцию распределения, проинтегрировав f(x,y) по области прямоугольника. При Х, Y  [1,1]x[2,3]. При X > 2, Y > 3 F(x,y) = 1. При X < 1, Y < 1 F(x,y) = 0. Полученная функция совпадает с заданной в условии. Компоненты независимы. 30. Моментные характеристики пары случайных величин: смешанный второй начальный момент, ковариация, коэффициент корреляции, ковариационная матрица.


Свойства ковариации: вычисление ковариации через смешанный второй начальный момент, симметричность, линейность. Смешанный второй начальный момент есть математическое ожидание произведения компонент вектора, т.е. XY = M[XY]. Если произвести преобразование по формуле для зависимых СВ, то M[XY] = (по определению) kXY + M[X]M[Y], где kXY – ковариация. Ковариацией (корреляционным моментом) kXY СВ X и Y называется второй центральный смешанный момент.


kXY = (по определению) M[(X-M[X])(Y-M[Y])]. Ковариация непрерывных СВ X и Y равна: Ковариация нормированных СВ называется коэффициентом корреляции. rXY=kXY/XY. Ковариационная матрица: Свойства ковариации: - cov(Ax,By)=ABcov(x,y). cov(x,y) = cov(y,x). 31. Формула дисперсии суммы (разности) двух величин. Неравенство Коши-Шварца для ковариации. Пусть MX=MY=0.


M[XY] = 0. Неравенство Коши-Шварца: 32. Некоррелированность и линейная зависимость двух случайных величин и их связь со свойствами ковариации и коэффициента корреляции. СВ X и Y называются некоррелированными, если cov(X,Y)=0. Из независимости СВ следует их некоррелированность, однако обратное утверждение в общем случае ложно. Как пример можно разобрать функциональную зависимость


Y = X2, где X ~ R(-a,a). Тогда ковариация между X и Y равна: Величины не коррелированны, но связаны функциональной зависимостью. Коэффициент корреляции: Заметим, что |rXY|  1 (следует из неравенства Коши-Шварца). Если |rXY| = 1, то случайные величины X, Y линейно зависимы, т.е.  с1, с2 


R, с12+с22 > 0: с1X + с2Y = 0. Линейная зависимость случайных величин X и Y или, что то же самое, их коллинеарность являются частным случаем их функциональной зависимости.



Не сдавайте скачаную работу преподавателю!
Данный реферат Вы можете использовать для подготовки курсовых проектов.

Поделись с друзьями, за репост + 100 мильонов к студенческой карме :

Пишем реферат самостоятельно:
! Как писать рефераты
Практические рекомендации по написанию студенческих рефератов.
! План реферата Краткий список разделов, отражающий структура и порядок работы над будующим рефератом.
! Введение реферата Вводная часть работы, в которой отражается цель и обозначается список задач.
! Заключение реферата В заключении подводятся итоги, описывается была ли достигнута поставленная цель, каковы результаты.
! Оформление рефератов Методические рекомендации по грамотному оформлению работы по ГОСТ.

Читайте также:
Виды рефератов Какими бывают рефераты по своему назначению и структуре.