Реферат по предмету "Математика"


Теория случайных чисел

--PAGE_BREAK--Р(А+В) = Р(А) + Р(В) — Р(АВ)Р(А+В+С) = Р(А) + Р(В) + Р(С) – Р(АВ) – Р(АС) – Р(ВС) – Р(АВС)



Теорема. Если АÌВ, то Р(А) £Р(В).

В=В1+В2 (В1=А)  Р(В)=Р(В1) + Р(В2)= Р(А) + Р(В2)
Теорема умножения вероятностей. Условные вероятности.



Опыт повторяется n раз, mB раз наступает событие В, mАВ раз наряду с событием В наступает событие А.

hn(B) =     hn(AB) =

Рассмотрим относительную частоту наступления события А, когда событие В уже наступило:



  — условная вероятность события А по событию В – вероятность события А, когда событие В уже наступило.



Свойства условных вероятностей.

Свойства условных вероятностей аналогичны свойствам безусловных вероятностей.

1.      0 £Р(А/В) £1, т.к. ; АВ ÌВ, Р(АВ) £Р(В)

2.      Р(А/А)=1

3.      ВÌА, èР(А/В)=1

4.     

5.      Р[(A+C)/B] = Р(А/В) + Р(C/В)– Если события А и С несовместны

Р[(A+C)/B] = Р(А/В) + Р(C/В) — Р(АC/В)– Если события А и С совместны

Теорема. Вероятность произведения двух событий равна произведению вероятности одного события на условную вероятность другого.





Свойства независимых событий.

Если события А и В независимы, то независимы и каждая из пар: А и В, А и ,  и В, .

Если события Н1, Н2, …Нn независимы, то заменяя любые из них на противоположные, вновь получаем независимые события.
Формула полной вероятности.

Вероятность события В, которое может произойти совместно только с одним из событий Н1, Н2, …Нn, образующих полную группу событий, вычисляется по формуле:



События А1, А2, …Аn называют гипотезами.
Теорема гипотез (формула Байеса).

Если до опыта вероятности гипотез были Р(Н1), Р(Н2)…Р(НN), а в результате опыта произошло событие А, то условные вероятности гипотез находятся по формуле:



Пример.На трех технологических линиях изготавливаются микросхемы. Найти: 1) вероятность того, что случайно выбранное изделие оказывается бракованным; 2) вероятность того, что если изделие дефектно, то оно изготовлено на 1 линии.

Рассмотрим события: Н1, Н2,…Нi,…, НN (полная группа событий)– изделие изготавливается i линией; А{изделие с браком}.





1)      Р(А)=0,25*0,05+0,35*0,04+0,4*002=0,0345=3,45%

2)     
Схема последовательных испытаний Бернулли.

Проводится серия из n испытаний, в каждом из которых с вероятностью р может произойти событие А, с вероятностью q=1-р событие .

Вероятность наступления события А не зависит от числа испытаний n и результатов других испытаний.

Такая схема испытаний с двумя исходами (событие А наступило либо не наступило) называется схемой последовательных испытаний Бернулли.

Пусть при n испытаниях событие А наступило k раз, (n-k) раз событие .

  — число различных комбинаций события А

Вероятность каждой отдельной комбинации:

Вероятность того, что в серии из n испытаний событие А, вероятность которого равна р, появится k раз:

  — условие нормировки.

Пример.Вероятность изготовления нестандартной детали равна р=0,25, q=0.75. Построить многоугольник распределения вероятностей числа нестандартных деталей среди 8 изготовленных.

N=8       p=0.25           q=0.75


Если k0– наивероятнейшее число, то оно находится в пределах:

np-q £k0£np+q
    продолжение
--PAGE_BREAK--Если число (np+q) нецелое, то k0– единственное             Если число (np+q) целое, то существует 2 числа k0.

Предельные теоремы в схеме Бернулли.

1.      Предельная теорема Пуассона. При р»0, n-велико, np= l£10.


 Формула дает распределение Пуасона, описывает редкие события.
2.      Предельная теорема Муавра-Лапласа.

0 £p £1, n –велико,np>10



  — стандартное нормальное распределение


3.      Предельная интегральная теорема Муавра-Лапласа.

В условиях предыдущей теоремы вероятность того, что событие А в серии из nиспытаний наступит не менее k1раз и не более k2раз:



  — функция Лапласа



Следствие:







Пример.ОТК проверяет на стандартность 1000 деталей. Выбранная деталь с вероятностью р=0,975 является стандартной.

1)      Найти наивероятнейшее число стандартных деталей:

K0=np=975
2)      Найти вероятность того, что число стандартных деталей среди проверенных отличается от k0  не более чем на 10.


3)      С вероятностью  0,95 найти максимальное отклонение числа стандартных деталей среди проверенных.




4)      Найти число проверяемых деталей n, среди которых с вероятностью 0,9999 стандартные детали составят не менее 95%.

0,95n£k£n

P(0,95n£k£n)=0.9999 = Ф(х2)- Ф(х1) =



  n=3.92*39=594

при р=0,9999  n=594

при р=0,999    n=428

при р=0,99      n=260



Раздел 3.
Случайные величины и распределение вероятностей.

Случайная– величина, которая в ходе опыта принимает то или иное значение из возможных своих значений, меняющееся от опыта к опыту и зависящее от множества непредсказуемых факторов.

Если случайные события характеризуют процесс качественно, то случайная величина – количественно.

Случайная величина – численная функция, задаваемая на множестве элементарных событий. На одном множестве может быть несколько случайных величин.  

Дискретная случайная величина (ДСК)– величина, принимающая счетное (конечное или бесконечное) множество значений.

Непрерывная случайная величина (НСВ) – случайная величина, значения которой образуют несчетные множества. (Например, расход бензина на 100 км у автомобиля Жигули в Нижнем Новгороде).

Задать св – значит указать все множество ее значений и соответствующие этим значениям вероятности. Говорят, что задан закон распределения случайной величины.

Случайная величина может быть задана несколькими способами:

1. Табличный.



Значения случайных величин в таблице ранжируются, т.е. указываются в порядке возрастания.

Недостпаток табличного способа в том, что он пригоден только для случайных величин, принимающих небольшое количество значений.
2. Функция распределения F
(
x
) =
P
(
X

x
)или интегральный закон распределения.

Указывается вероятность того, что случайная величина принимает значение



При увеличении значения случайной величины, количество ступенек функции F(х) возрастает, уменьшается их высота и в пределе при  получаем гладкую непрерывную функцию F(х).

Свойства функции
F
(х).

1.      Неотрицательна. 0£F(х)£1

2.      Неубывающая F(х2)> F(х1) при х2>х1

3.     

4.      Р(
a

x

b
) =
F
(
a
) –
F
(
b
)Вероятность того, что значение х попадет в интервал (а,b) определяется разностью значений функции на концах интервала.


    продолжение
--PAGE_BREAK--Наряду с F(х) вводится f
(
x
) -функция плотности вероятности или дифференциальный закон распределения:




Свойства функции f(x):

1.      Неотрицательна. (т.к. F(x) неубывающая, f
(
x
)
³
)

2.      Площадь фигуры под кривой на интервале (a,b) равна:

 
  — условие нормировки функции f
(
x
).
Основные дискретные и непрерывные случайные величины.

Дискретные случайные величины (ДСВ).

1.     Биноминальная случайная величина x{0,1,2,3…n}

,  p+q=1, 0
2.     Пуассоновская случайная величина x{0,1,2,3…}


3.     Бернуллиевая случайная величина  



4.     Равномерное распределение
Непрерывные случайные величины (НСВ).

1.      Равномерное распределение






2.      Треугольное распределение Симпсона




3. Экспоненциальное (показательное) распределение. Имеет важное значение в теории массового обслуживания и теории надежности.





l— интенсивность.
3.      Нормальный закон распределения.

, s>0

s=1, m=0 – нормальное стандартное распределение (m-мат. ожидание)

— такой подстановкой любое нормальное распределение приводится к стандартному.

При фиксированном sи изменяющемся m, кривая двигается вдоль Ох, не изменяя формы.

При фиксированном mи изменяющемся s(s1



Функция Лапласа:

    продолжение
--PAGE_BREAK--Операции со случайными величинами
Со случайными величинами, рассмотренными на одном и том же интервале исходов опыта, можно обращаться как с обычными числами и функциями.

X:
X
a1

a2



an

p

p1

p2



pn

Y=j(x)

Нужно найти закон распределения СВ Y. yk=j(ak), где k=1,2,…,n.

P(y=yk)=P(x=ak)=Pk

Если все значения СВ Yразличны, то их надо проранжировать и указать соответствующие вероятности.

Если СВ Yпринимает совпадающие значения, то их надо объединить под общей вероятностью, равной сумме соответствующих вероятностей, а после в ранжированном виде привести в таблице.

X={0,1,2,…,9}, P(x=k)=0.1, k=0,1,…,9, Y=x2, Z=(x-5)2.

X



1

2

3

4

5

6

7

8

9

P

0.1

0.1

0.1

0.1

0.1

0.1

0.1

0.1

0.1

0.1

Y



1

4

9

16

25

36

49

64

81

Py

0.1

0.1

0.1

0.1

0.1

0.1

0.1

0.1

0.1

0.1
Z
25

16

9

4

1



1

4

9

16

Pz

0.1

0.1

0.1

0.1

0.1

0.1

0.1

0.1

0.1

0.1
    продолжение
--PAGE_BREAK--


Закон распределения СВ Z:
Z


1

4

9

16

25

Pz

0.1

0.2

0.2

0.2

0.2

0.1


Бинарные операции (с несколькими величинами)
СВ X,Yзаданы в 1 опыте.
Исход опыта
E1

E2



En

Вероятность исхода

P1

P2



Pn

X

X1

X2



Xn

Y

Y1

Y2



Yn

Z=
j
(XY)

Z1

Z2



Zn

Сложнее, если СВ задана только своим распределением:
X
a1

a2



an

Р

p1

p2



pn


Y
b1

b2



bn

Р

g1

g2



Gn

Z=X+Y

СВZ принимаетзначенияak+bs, гдеak=a1,a2,…,an; bs=b1,b2,…bm.

Общее количество возможных значений СВ = m×n.

P(Z=ak+bs)=P(X=ak, Y=bs)

Для нахождения такой вероятности необходимо знать закон совместного распределения СВ Xи Y.

Набор точек (ak,bs) вместе с вероятностями P(X=ak, Y=bs) называется совместным распределением СВ X
и
Y. Обычно такое распределение задается таблицей.

Определение закона распределения суммы СВ по законам распределения слагаемых называется композицией законов распределения.




X \Y

b1

b12



bs



bm

Px

a1

P11

P12



P1s



P1m

P1

a2

P21

P22



P2s



P2m

P2

















ak

Pk1





Pks



Pkm

Pk

















an

Pn1

Pn2



Pns



Pnm

Pn

Py

g1

g2



gs



gm

1



Наиболее просто вероятности Pksнаходятся в случае независимости СВ Xи Y. Две СВ Xи Yназываются независимыми тогда и только тогда, когда

P(X=ak, Y=bs)=P(X=ak)×P(Y=bs)

Pks=Pk×Ps

По известному закону распределения совместного распределения СВ Xи Yмогут быть найдены одномерные законы распределения СВ Xи Y.





Теорема . Если СВ Х,Yявляются независимыми, то любые функции j(Х) и y(У) от этих величин также являются независимыми.
    продолжение
--PAGE_BREAK--Распределение функции от случайной величины
Х – непрерывная СВ  

. По закону распределения СВ Х.  Найти закон распределения СВ Y.

Если СВ ХÎ[х0, х1], то Î[y,y1].

Предполагается, что функция j(х) является однозначной и имеет обратную функцию q(y).


Воспользовавшись элементами вероятности:

         
получим  .

Закон распределения не меняется, если q(y) является линейной.

fy(y)=fx(x).
Многомерные законы распределения СВ
Часто при решении практических задач мы имеем дело не с одной, а с совокупностью нескольких случайных величин, которые взаимосвязаны.

nx1,x2,…,xn         n
-мерная случайная величина– совокупность nвзаимосвязанных случайных величин. Для ее описания используются многомерные законы распределения.


Двумерные функции распределения
X,Y                  F(x,y)=P(X

Функция F
(
x
,
y
)обладает свойствами, аналогичными свойствам одномерной функции:

– не убывающая 1. x2³x1ÞF(x2,y)³F(x1,y)

– не отрицательная            y2³y1ÞF(x,y2)³F(x,y1)

   £F(x,y)£1                   2. F(¥,¥)= 1    F(-¥,-¥)=0

                                                3. Fx(x)=P(X

                                                    Fy(y)=P(Y

f
(
x
,
y
) – функция плотности вероятности совместного распределения величин xи y
.





1. f(x,y)³

2.  – условие нормировки

3. По известным двумерным находятся соответствующие одномерные

              

В случае статистической независимости СВ Х и У

F(x,y)=Fx(x)×Fy(y)

f(x,y)=fx(x)×fy(y)

F(x,y)=Fx(x)×Fy(y/x)=Fx(x/y) – для условных

f(x,y)=fx(x) ×f(y/x)=fy(y) ×f(x/y)


    продолжение
--PAGE_BREAK--Раздел 4. Числовые характеристики СВ


Исчерпывающие представления о СВ дает закон её распределения.

Во многих задачах, особенно на заключительной стадии, возникает необходимость получить о величине некоторое суммарное представление: центры группирования СВ – среднее значение или математическое ожидание, разброс СВ относительно её центра группирования.

Эти числовые характеристики в сжатой форме отражают существенные особенности изучаемого распределения.
Математическое ожидание (МО)


М(х), МО(х), mx, m


Основные свойства МО:

1. М(х) СВ Х       Þ        Хmin£М(х)£Хmax

2. М(С)=С                       МО постоянной величины есть величина постоянная

3. М(Х±У)=М(Х) ±М(У)

4. М(Х×У)=М(х) ×М(у)     ÞМ(Сх)=СМ(х) – МО произведения двух независимых СВ

5. М(аХ+вУ)=аМ(Х)+вМ(У)

6. М(Х-m)=0 – МО СВ Х от её МО.


МО основных СВ
Дискретные Случайные Величины

1. Биноминальные СВ               МО(Х)=np

2. Пуассоновские СВ                 МО(Х)=l

3. Бернуллиевы СВ                    МО(Х)=р

4. Равномерно распред. СВ      
Непрерывные Случайные Величины

1. Равномерно распределенная СВ                             

2. Нормально распределенная СВ                                MO(X)=m

3. Экспоненциально распределенная СВ                   


Дисперсия СВ
1. R=Xmax-Xmin– размах СВ

2. M(|X-m|) – среднее абсолютное отклонение СВ от центра группирования

3. M(X-m)2 – дисперсия – МО квадрата отклонения СВ от центра группирования

M(X-m)2=D(X)=s2=sx2=s2(X)

      – среднеквадратическое отклонение (стандартное отклонение).



Основные свойства дисперсии:

1. Для любой СВ Х: D(X)³0. При Х=constD(X)º0.

2. D(X)=M(X2)-M2(X)=M(X2-2mX-m2)

3. D(cX)=c2D(X)

4. D(X+c)=D(X)

5. D(X+Y)=D(X)+D(Y), D(X-Y)=D(X)+D(Y)

В общем случае:

D(X+Y)=M(X+Y-mx+y)2=M((X-mx)+(Y-my))2=M((X=mx)2+2(X-mx)(Y-my)+(Y-my)2)=

=D(X)+2M((X-mx)(Y-my))+D(Y). Второй член этого выражения называется корреляционным моментом. mx+y=M(X)+M(Y)=mx+my. D(X)=M(X-mx)2.

M((X-mx)(Y-my))=K(X,Y)=Kxy=cov(x,y) – ковариация

Kxy/sxsy=rxy– коэффициент корреляции

6. Независимые СВ: D(XY)=D(X)D(Y)+M2(X)D(Y)+M2(Y)D(X)
    продолжение
--PAGE_BREAK--Дисперсия основных СВ
ДСВ

1. Биноминальные         D(X)=npq

2. Пуассоновские            D(X)=l

3. Бернуллиевы              D(X)=pq

НСВ

1. Равномерно распределенные                       D(X)=(b-a)2/12

2. Нормально распределенные                         D(X)= s2

3. Экспоненциально распределенные             D(X)=1/l2


Математическое ожидание и дисперсия суммы случайных величин
X1,X2,…,Xn– независимые СВ с одинаковым законом распределения.

M(Xk)=a  D(Xk)=s2

 – среднее арифметическое


Другие числовые характеристики СВ
Моменты распределения делятся на начальные моменты, центральные и смешанные.

1. Начальные моменты qгопорядка (q=1,2,…): M(X1)=МО



2. Центральные моменты qгопорядка: M((X-m)2)=D



M(x-m)q=M(x)q-Cq1mM(x)q-1+ Cq2mM(x)q-2+…+(-1)qmq

M(x-m)3= M(x)3-3mM(x)2+2m3

M(x-m)2= M(x)2-m2=D(x)

Центральные моменты 3го и 4го порядков используются для получения коэффициентов асимметрии и эксцесса (As, Ex), характеризующих особенности конкретного распределения.



Для нормального закона распределения As=0.

Если As>0, то распределение имеет правостороннюю скошенность. При Asлевосторонняя скошенность.


Эксцесс характеризует остро- или плосковершинность исследуемого распределения по сравнению с нормальным распределением.

НСВ:

1. Нормальное распределение: Ex=As=0

2. Равномерное распределение: As=0, Ex=-1,2

3. Экспоненциальное распределение: As=2, Ex=9.

Биноминальное:

3. Смешанные моменты:

Начальный смешанный момент порядка (k+s) системы 2х СВ (X+Y):



Центральный моменты порядка (k+s):



Центральный смешанный момент второго порядка:

Kxy=M((X-mx)(Y-my)) – корреляционный момент

 – коэффициент корреляции

Мода ДСВ– значение СВ, имеющее максимальную вероятность.

Мода НСВ– значение СВ, соответствующее максимуму функции плотности вероятности f(x).

Обозначение моды: m, M(x), mod(x).

МедианаСВ Х (me, Me(x), med(x)) – значение СВ, для которого выполняется равенство:

P(Xme)

F(me)=0,5.

Медиана – это площадь, получаемая делением фигуры пополам.

В симметричном распределении m=m=me. В несимметричном они не равны.

Так как мода и медиана зависят от структуры распределения, их называют структурными средними.

Медиана – это значение признака, который делит ранжированный ряд значений СВ на две равных по объему группы. В свою очередь, внутри каждой группы могут быть найдены те значения признака, которые делят группы на 4 равные части – квартиль.

Ранжированный ряд значений СВ может быть поделен на 10 равных частей – децилей, на 100 – центилей.

Такие величины, делящие ранжированный ряд значений СВ на несколько равных частей, называются квантилями.

Под p% квантилями понимаются такие значения признака в ранжированном ряду, которые не больше p% наблюдений.


    продолжение
--PAGE_BREAK--Предельные теоремы теории вероятностей
Делятся на две группы: Закон Больших Чисел (ЗБЧ) и Центральная Предельная Теорема (ЦПТ).

Закон Больших Чиселустанавливает связь между абстрактными моделями теории вероятностей и основными ее понятиями и средними значениями, полученными при статистической обработке выборки ограниченного объема из генеральной совокупности. P, F(x), M(x), D(x).

ЗБЧ доказывает, что средние выборочные значения при n®¥стремятся к соответствующим значениям генеральной совокупности: hn(A)®P, Xср®M(X), sср2®D(X), F*(X)®F(X).

Лемма Маркова. Если Y– СВ, принимающая не отрицательные значения, то для любого положительного e:

P(Y³e)£M(x)/e,   P(Y

Доказательство. Рассмотрим Yи : Ye£Y, M(Ye)£M(Y)

M(Ye)=0×P(Y

M(Y)³M(Ye)=e×P(Y³e).

Лемма позволяет сделать оценку вероятности наступления события по математическому ожиданию этой СВ.

Неравенство Чебышева. Для любой СВ с ограниченными первыми двумя моментами (есть МО и D) и для любого e>0:



Доказательство. По лемме Маркова: рассмотрим не отрицательную СВY

Y=(X-m)2             M(Y)=M(X-m)2=D(x)

P(|X-m|³e)=P((X-m)2³e2)=P(Y³e2)£M(Y)/e2=D(x)/e2.

Требуется только знание дисперсии СВ при любом законе распределения.
ЗБЧ в форме Чебышева. X1, X2, …, Xn– последовательность независимых СВ. Для любого e>0 и n®¥:



ЗБЧ в форме Бернулли. m– число успехов в серии из nпоследовательных испытаний Бернулли. P– вероятность успеха в каждом отдельном испытании. e>0:



ЗБЧ носит чисто качественный характер. В тех же условиях неравенство Чебышева позволяет получить количественную характеристику оценки вероятности.

Пример. Для определения вероятности события проведено 40000 опытов. События наблюдалось в m=16042 случаях. За вероятность события принимается относительная частота наступления события: m/n»0,4. Применяя неравенство Чебышева, оценить, с какой вероятностью можно гарантировать, что число 0,4, принятое за вероятность, отличается от истинной вероятности не больше, чем на 0,05.



Неизвестные pи qнаходим из системы уравнений:

 =>

Центральная предельная теорема Ляпунова.

Предмет внимания этой теоремы – распределение суммы большого числа СВ.

X=(x1+x2+…+xn)/n

Распределение суммы nнезависимых СВ в независимости от их законов распределения асимптотически сходятся к нормальному закону при неограниченном числе слагаемых и ограниченных двух первых моментах (МО и D).



Если si2=s2, то sх2=s2/n, .

D(x)=sх2=(s12+s22+…sn2)/n2

ЦПТ универсальны и справедливы как для НСВ, так и для ДСВ.

P(a

t2=(b-mx)/sx          t2=(a-mx)/sx

Sn=(X1+X2+…+Xn)/n

P(|Sn-m|

M(xk)=m              D(xk)=s2



ЦПТ в интегральной форме Муавра-Лапласа.




    продолжение
--PAGE_BREAK--Статистическое оценивание параметров распределения
Мы анализируем только выборки из генеральной совокупности. По средне выборочным параметрам находим параметры самой генеральной совокупности.

Задачи такого рода решаются методами проверки статистических гипотез и статистической оценки параметров распределения.

Прежде нужно получить и провести первичную обработку исходных экспериментальных данных.

Статистические ряды часто изображают графически в виде полигона, гистограммы, кумулятивной кривой F*(x).

Полигон– ломаная линия, соединяющая в декартовой системе координат точки (xi,ni), (xi,mxi).

Кумулятивная криваястроится по точкам (xi,F*(xi)).

Гистограмма – на оси абсцисс – отрезки интервалов t, на этих интервалах строятся прямоугольники с высотой, равной относительной частоте признака. По гистограмме легко строится полигон.

И полигон, и гистограмма характеризуют функцию f*(x) – плотность вероятности.

НСВ – проблема выбора интервала варьирования h.

hвыбирается, исходя из необходимости выявления характерных черт рассматриваемого распределения.

Правило Старджесса:

Как только характерные особенности распределения проявились, ставится вопрос об условиях, при которых сформировалось данное распределение – вопрос об однородности статистических данных.

Если функция f*(x) – бимодальная (имеет два максимума), то статистическое данные неоднородные.

Методы математической статистики должны позволить сделать обоснованные выводы о числовых параметрах и законе распределения генеральной совокупности по ограниченному числу выборок из этой совокупности.

Состав выборок случаен и выводы могут быть ложными. С увеличением объема выборки вероятность правильных выводов растет. Всякому решению, принимаемому при статистической оценке параметров, ставится в соответствие некоторая вероятность, характеризующая степень достоверности принимаемого решения.

Задачи оценки параметров распределения ставятся следующим образом:

Есть СВ Х, характеризуемая функцией F(X, q).

q– параметр, подлежащий оценке.

Делаем mнезависимых выборок объемом nэлементов xij(i– номер выборки, j– номер элемента в выборке).

1    x11, x12, …, x1nX1

2    x21, x22, …, x2nX2



m   xm1, xm2, …, xmn           Xm

Случайные величины X1, X2,…Xmмы рассматриваем как mнезависимых СВ, каждая из которых распределена по закону F(X, q).

Всякую однозначную функцию наблюдений над СВ х, с помощью которой судят о значении параметра q, называют  – оценкой параметра q.



Выбор оценки, позволяющей получить хорошее приближение к оцениваемому параметру – задача исследования.

Основные свойства оценок
Несмещенность, эффективность и состоятельность.

Оценка  параметра qназывается несмещенной, если M()=q.

Если  – в оценке параметра qимеется систематическая ошибка.

Несмещенность оценки гарантирует отсутствие систематической ошибки в оценке параметра.

Несмещенных оценок может быть несколько.

– несмещенная оценка q.

Разброс параметров или рассеяние величины относительно математического ожидания qхарактеризует дисперсия D(), D().

Из двух или более несмещенных оценок предпочтение отдается оценке, обладающей меньшим рассеянием относительно оцениваемого параметра.

Оценка называется состоятельной, если она подчиняется закону больших чисел:



На практике не всегда удается удовлетворить одновременно всем трем требованиям.
    продолжение
--PAGE_BREAK--Оценка математического ожидания по выборке
Теорема 1. Среднее арифметическое  по nнезависимым наблюдениям над СВ xс МО mявляется несмещенной оценкой этого параметра.

Доказательство: x1,x2,…,xn         M(x)=m           M(x1)=M(x2)=…=M(xn)=m



Теорема 2. Среднее арифметическое  по nнезависимым наблюдениям над СВ xс МО mи дисперсией D(x)=s2является состоятельной оценкой МО.

Доказательство: D(x)=s2           D(x1)=D(x2)=…=D(xn)=s2



Теорема 3. Если СВ Х распределена по нормальному закону с параметрами (m,s2), то несмещенная и состоятельная оценка  МО mимеет минимальную дисперсию s2/n=>  является и эффективной.

Оценки дисперсии по выборке
Если случайная выборка состоит из nнезависимых наблюдений над СВ Х с M(X)=mи D(X)=s2, то выборочная дисперсия не является несмещенной оценкой дисперсии генеральной совокупности.



Несмещенной оценкой D(x) является , .

Легко доказать по формуле Чебышева, что оценки S2 и  являются состоятельными оценками дисперсии.

Несмещенная, состоятельная и эффективная оценка дисперсии:



Если МО генеральной совокупности неизвестно, то используют .

Существуют регулярные методы получения оценок параметров генеральной совокупности по данным выборок.
Методы оценки параметров генеральной совокупности
Метод наибольшего (максимального) правдоподобия (МНП)(ММП)обладает следующими достоинствами:

1. Всегда приводит к состоятельным оценкам (иногда смещенным)

2. Получаемые оценки распределены асимптотически нормально и имеют минимально возможную дисперсию по сравнению с другими асимптотически нормальными оценками.

Недостаток: требуется решать громоздкие системы уравнений.

Имеется СВ Х, f(x,q) – функция ее плотности вероятности, выражение которой известно.

q– неизвестный параметр, подлежащий оценке.

x1, x2,…,xn– n  независимых наблюдений над СВ x.

В основе МНП лежит функция L(q) – функция правдоподобия, формирующаяся с учетом свойств многомерной функции распределения наблюдений над СВ х.

f(x1, x2,…,xn,q)=f(x1, q)×f(x2,q)×…×f(xn,q)

В указанное равенство подставляются данные и получаем функцию L(q):

L(q)=f(x1, q)×f(x2,q)×…×f(xn,q)

За максимальное правдоподобное значение параметра qпринимаем , при которой L(q) максимально.

L'(q)=0 => qmax=
Метод моментов(Метод Пирсона).
Метод обладает следующими достоинствами:

1.      Оценки получаемые этим методом всегда являются состоятельными.

2.      Метод моментов мало зависит от закона распределения случайной величины.

3.      Сложность вычисления незначительна.

Известна случайная величина Х, которая характеризуется f(x, θ1, θ2…θq), аналитический вид этой функции известен.

По выборке объёмом nх1, х2, х3,…хn– значения случайной величины в выборке вычисляем эмпирические начальные моменты случайной величины:


Находим теоретические моменты:


Основная идея метода моментов заключается в приравнивании значения эмпирических значений моментов теоретическим.


Решим систему q-уравнений с q-неизвестными:

    состоятельные оценки.

Состоятельность этих оценок основана на том, что эмпирические моменты при достаточно большом n(n→∞) стремится к теоретическим. Выполняется закон больших чисел.





Распределение средней арифметической для выборки

из нормальной совокупности. Распределение Стьюдента.
Выборочное среднее рассчитанное по конкретной выборке, есть конкретное число. Состав выборки случаен и среднее арифметическое вычисленное по элементам другой выборки того же объёма, будет число отличное от первого.

  — средняя арифметическая величина меняющаяся от выборки к выборке.

Теорема:Если случайная величина Х  подчиняется нормальному закону с параметрами mи σ2Х(m, σ2), а х1, х2, х3,…, хn– это выборка из генеральной совокупности, то средняя арифметическая:



так же является случайной величиной подчиняющаяся нормальному закону с параметрами mи σ2/n, а нормированная случайная величина:



так же подчиняется нормальному закону с параметрами (0;1).
Предполагается при использовании таблиц интеграла вероятности, что объём выборки nдостаточно велик(n≥ 30).

Существует достаточно большое количество технических задач в которых не удаётся собрать выборку такого объёма. Тем не менее анализу такой выборки необходимо дать вероятностную оценку.
В 1908 году английский математик Вильям Госсет дал решение задачи малых выборок (псевдоним Стьюдент). Стьюдент показал, что в условиях малых выборок надо рассматривать не распределение самих средних, а их нормированных отклонений от средних генеральных.

Надо рассматривать:



  — это чётное распределение.

Оно зависит только от объёма выборки nи не зависит ни от математического ожидания, ни от дисперсии случайной величины Х. При n→∞ t– распределение Стьюдента переходит в нормальное распределение.

Поскольку в большинстве случаев σ генеральной совокупности неизвестно, то работает с такой величиной:

— состоятельная и несмещённая оценка.

Существуют tтаблицы распределения Стьюдента.

Величина доверительной вероятности, её выбор находятся за пределами прикладной статистики. Они задаются самим исследователем. Величина доверительной вероятности определяется тяжестью тех последствий, которые могут произойти в случае, если произойдёт нежелательное событие.

Величина tn,pпоказывает предельную случайную ошибку расхождения средневыборочного и математического ожидания.



Распределение дисперсии в выборках нормальной совокупности.

Распределение χ2 Пирсона.

Выборочная дисперсия так же является случайной величиной меняющейся от выборки к выборки.

1)      М(Х) – известно;

2)      М(Х) – не известно.
1) Имеется случайная величина Х, которая подчиняется нормальному закону с параметрами (m, σ2),

где: хi(i= 1, 2, …, n) – независимые наблюдения над случайной величиной.

Для дисперсии мы выбираем вот такую оценку:

  — несмещённая, состоятельная и эффективная оценка дисперсию генеральной совокупности.



Величина Uiявляется случайной величиной с параметрами (0;1).



Случайная величина представляющая собой сумму квадратов n  независимых случайных величин, каждая из которых подчиняется нормальному закону распределения с параметрами (0;1) и независимых случайных величин с распределением χ2 с к = n– степенями свободы.
Сама функция плотности вероятности f(χ2) имеет вид:



Эта функция зависит только от объёма выборки и не зависит ни от математического ожидания, ни от дисперсии, ни от х.

Имеются таблицы распределения χ2 позволяющие вычислить вероятность события

,

где: к – число степеней свободы;

α – доверительная вероятность, которая задаётся самим исследователем.
2)      Математическое ожидание неизвестно.
    продолжение
--PAGE_BREAK--Когда случайная величина Х с параметрами (
m
,
σ
2
) – неизвестны.
Для оценки дисперсии генеральной совокупности используется величина:



Случайная величина имеет распределение χ2 с к = n– 1 степенями свободы.

Уменьшение степени свободы использована для получения среднего выборочного.
Доверительный интервал.

Рассмотренные ранее оценки получили название точечных оценок. На практике широко используются интервальные оценки, для получения которых используется метод доверительных интервалов.

В методе доверительных интервалов указывает не одно(точечное) значение интересующего нас параметра, а целый интервал. Он строится на основе неравенства Чебышева:



Задаётся некоторое число 0 уровень значимости.

Параметр ε находится из неравенства:

, тогда:


Интервал  называется доверительным интервалом с уровнем значимости α.

Доверяясь расчёту мы утверждаем, что неизвестная вероятность принадлежит указанному интервалу, а вероятность возможной ошибки имеющей место тогда, когда этот интервал не накрывает истинное значение α не превосходит уровня значимости α.

n= 1000,  m/n= 0,6

При  α = 0,1    (0,550; 0,650)

При α = 0,01     (0,442; 0,758)

Истинное значение вероятности Р мы незнаем, но можем утверждать, что первый интервал накрывает это значение с вероятностью не менее чем 0,9, а второй – 0,99.
Пример. Имеется некоторое предположение, гипотеза, о том, что неизвестная вероятность Р равна заданному число Р0:

Н0: р = р0; (Р0= 0,5).

Эту гипотезу можно принять, а можно и отклонить посчитав её противоречащей известным статистическим данным.

Для принятия решения(проверки гипотезы) мы проделаем следующую процедуру:

Если Р0Î(Р*, Р*) с α, то гипотезу принимаем(возможно здесь и ошибка, мы можем принять ложную гипотезу – такая ошибка первого рода).

Если Р0Ï(Р*, Р*) с α, то гипотеза отвергается(здесь тоже можем совершить ошибку отклонить верную гипотезу – такая ошибка второго рода, вероятность такой ошибки заранее задаётся нами при построении доверительного интервала).

При наших предположениях, когда уровень значимости равен 0,1 в общем мы имеем Р0Ï(0,550; 0,650). Эта гипотеза отвергается, при этом мы ошибаемся не более чем в 1 случае из 10.
Построение доверительного интервала для математического ожидания.

Случайная величина Х распределённая с параметрами (m, σ2).

Математическое ожидание неизвестно и требуется построить для него доверительный интервал.

1.       Известно σ2.


2.       Неизвестно σ2.



1.
σ2  известно.

Проводится выборка из генеральной совокупности и в качестве несмещённой, состоятельной и эффективной оценки математического ожидания выбирается . Оно тоже подчиняется нормальному закону с параметрами:

, где: n– объём выборки.

Нормированная величина:



подчиняется нормальному закону распределения с параметрами (0; 1), тогда вероятность:



Вероятность задаётся уровнем α, величина Р – доверительная вероятность. По таблице находим величину Zp.

При известном Zpполучим:


Интервал для математического ожидания (m*; m*) получим:

– доверительный интервал для математического ожидания с уровнем значимости α.
2.  σ2 неизвестно.

Точно так же проводится выборка объёмом n, формируется случайная величина t



Случайная величина tимеет распределение Стьюдента.

Зная объём выборки n, задаваясь уровнем значимости αили задаваясь доверительной вероятностью р=1-α.

По распределению Стьюдента находим tn,p– максимальное отклонение mи .



где: Р – доверительная вероятность.

Отсюда легко строится доверительный интервал.




Несмотря на кажущиеся совпадения двух формул они существенно отличаются друг от друга.

Во втором случае величина доверительного интервала зависит не только от доверительной вероятности, но и от объёма выборки.

Это различие наиболее существенно проявляется при малых выборках.


Построение доверительного интервала для дисперсии.

Случайная величина Х распределена по нормальному закону с параметрами (m, σ2).
Требуется построить доверительный интервал для дисперсии по выборочным дисперсия.

 или

Построение доверительного интервала для дисперсии основывается на том, что случайные величины:

           – имеют распределение χ2 с

к = n, к  = n– 1    – степенями свободы.
При заданной доверительной вероятности 1 – α мы записываем:



По таблице распределения χ2 мы должны выбрать такие два числа , чтобы площадь заштрихованная была равна 1-α.
Обычно величины  выбирают таким образом, чтобы выполнялось неравенство:





В таблице распределения χ2 имеется только вероятность вида:





Тогда:



Преобразуя это неравенство получим:



  — доверительный интервал с уровнем значимости α.

Проверка статистических гипотез.
Наряду с оценкой параметров распределения по выборочным данным большой интерес представляет вид (закон) распределения неизвестный на практике. Такие задачи решаются методами статических гипотез.

Относительно неизвестного теоретического распределения формируется некоторое предположение, которое формируется в виде гипотез.

Например, теоретическое распределение подчиняется нормальному, экспоненциальному закону.

При проверки гипотез используется принцип значимости основывающийся на принципе практической невозможности.

Согласно принципу практической невозможности события с очень малыми вероятностями в практических приложениях считаются невозможными.

Максимум таких вероятностей определяет уровень значимости α, который задаётся.

В свою очередь согласно принципу значимости отвергается случайность появления практически невозможного события.

Поскольку теоретическое распределение задано гипотезой, то легко рассчитать вероятность появления некоторого события при проведении испытаний или взятии выборки и пусть такая расчётная вероятность не превышает ε, т.е. событие является практически невозможным.

Если же такое событие происходит, то возникает противоречие между выдвинутой гипотезой и выборкой. Гипотезу следует отвергнуть в этом и заключается содержание принципа значимости.

Проверяемая гипотеза называется нулевой или основной Н0.

Если гипотеза отвергается, то принимается противопоставляемая ей гипотеза Н1, которая называется конкурирующей ил альтернативной.

Про проверки гипотезы Н0 возможны ошибки.

Можно отвергнуть гипотезу Н0 в условиях когда она верна и совершить ошибку I-го рода и можно принять гипотезу, когда она не верна и совершить ошибку II-го рода.

Решение поставленной задачи по сути дела состоит в разделении всего множества выборочных данных на 2-а не пересекающихся подмножества О и W. Таких, что решение принимается в пользу гипотезы Н0, если выборка принадлежит области О и в пользу гипотезы Н1, если выборка принадлежит подмножеству W. Область Wназывается критической областью выборочного пространства. Здесь гипотеза Н0отвергается, а область О является областью допустимых значений. Здесь гипотеза Н0принимается.
Проверка гипотезы о равенстве центров распределения математического ожидания  2-х нормальных генеральных совокупностей.

Задача имеет большой практический интерес. Достаточно часто наблюдается такая ситуация, что средний результат в одной серии эксперимента отличается от среднего результата в другой серии эксперимента.

Возникает вопрос: можно ли объяснить отличительное расхождение случайными ошибками эксперимента и относительно малыми объёмами выборки или это отклонение вызвано какими-либо неизвестными, незамеченными закономерностями.

Имеется две случайных величин Х и Yс нормальным законом распределения.

Получим 2-е независимых выборки объёмом n1и n2из указанных генеральных совокупностей.

Необходимо проверить:  Н0: М(X) = М(Y)

                                           H1: |M(X) – M(Y)| > 0

Рассмотрим два случая:

1.  – известны дисперсия генеральной совокупности ;

2.  – дисперсия неизвестна .

1— ,M(X) и M(Y) — неизвестны, для их оценки мы используем средние выборочные

Относительно  известно, что они подчиняются нормальному закону распределения с параметрами:



Рассмотрим случайную величину . В силунезависимости выборок эта случайная величина подчиняется нормальному закону распределения.

Её дисперсия:



Если гипотез Н0верна(справедлива), то тогда: .

Величина:

 с параметрами (0, 1)

Выбирая уровень значимости α или доверительную вероятность Р = 1- α можем записать:

; ;

Выбирая по величине интеграла вероятности значения ZPмы тем самым делим выборочных данных на область допустимых значений и критическую область.

Для области, где выполняется неравенство |Z| ≤ ZP– область допустимых значений(ОДЗ) Н0– принимается.

А, если |Z| > ZP– критическая область(КО) Н0– отвергается, Н1 – принимается.

Чем меньше α, тем меньше вероятность отклонить проверяемую гипотезе, если она верна. Но в этом случае увеличивается вероятность совершения ошибки II-го рода.

Чем меньше α, тем больше ОДЗ и тем больше вероятность принять проверяемую гипотезу, если она не верна, т.е. совершить ошибку II-го рода.
Методы проверки гипотез позволяют только отвергнуть проверяемую гипотезу, но они не могут доказать её справедливость.
2-Дисперсия неизвестна.

Есть 2-е случайных величины Xи Y, .

 mxи my  неизвестны берутся независимые выборки (n1;n2) и рассматривается гипотеза:                                Н0: M(X) = M(Y)

                                                              H1: |M(X) – M(Y)| > 0.

Для оценки математического ожидания M(X) и M(Y) используем среднее выборочное . Для оценки дисперсий используем:

  — несмещённые, состоятельные оценки дисперсии.

Поскольку генеральные совокупности Xи Yимеют одинаковые дисперсии, то для оценки дисперсии целесообразно использовать результаты обеих выборок.

Наиболее целесообразной оценкой дисперсии является средняя взвешенная этих двух оценок.



Если гипотеза Н0справедлива, то тогда случайная величина подчиняется нормальному закону распределения с  и с дисперсией







Если построить случайную величину:



, то она будет подчиняться нормальному закону с параметрами (0; 1).

Т.к.  неизвестна, то такая величина подчиняется t-распределению Стьюдента(со степенями свободы n1 + n2 – 2).

Для α(Р = 1– α) подсчитывается критическое значение



Если вычисленные значения , то гипотеза Н0отвергается и наоборот:

 Н0принимается.
Проверка гипотезы о совпадении 2-х дисперсий.

Задача имеет важное практическое значение. Возникает при наладке какого-либо оборудования при сравнении точности приборов, инструментов, методов измерений.

По 2-м независимым выборкам вычислены оценки дисперсий:



Для проверки гипотезы Н0используется критерий Фишера(F–критерий,  F–распределение).

Вычисляется коэффициент:


Вычисляется критическое значение Fкр(α (или Р = 1 — α))



, где: ν – число степеней свободы числителя и знаменателя.
Если Fн> Fкр, то Н0отвергается,

                      Fн
Анализ однородности дисперсий.

Понятие однородностиявляется обобщением понятия равенства дисперсий в случае, если число выборок превосходит 2(N> 2).

Для проверки гипотезы H:

Н0:

Н1: дисперсия неоднородна.

Объёмы выборок n1,n2, … ,nNразличны.

Когда объёмы выборок различны для решения задачи является χ2с (N-1) степенями свободы.

На практике наиболее частым является когда объёмы выборок одинаковы.

При равных объёмах выборок используется критерий Кохрана для проверки Н0.

Есть соответствующее распределение, но оно громоздко.

В начале вычисляется фактическое значение критерия:



Отношение максимальной оценки дисперсии к сумме всех оценок дисперсий вычисленных по табличным данным.

Для Р = 1 – α вычисляется критическое значение критерия Кохрана Gкр.

При    Gн≤ Gкр  — Hпринимается;

           Gн > Gкр  — H0отвергается.
Проверка гипотез о законе распределения.

Имеется случайная величина Х, требуется проверить гипотезу Н0:

Н0: эта случайная величина подчиняется некоторому закону распределения F(x).

Для проверки гипотезы делается выборка состоящая из nнезависимых наблюдений над случайной величиной Х. По выборке строится эмпирическая функция распределения F*(x). Сравнивая эти распределения с помощью некоторого критерия(критерий согласия) делается вывод о том, что эти два распределения согласуются, т.е. Н0– принимается.

Существует несколько критериев согласия: χ2 Пирсона, критерий Колмогорова и т.д.


Критерий согласия χ2 Пирсона.

Имеется случайная величина Х, выдвигается гипотеза Н0: F(x), делается выборка.

Диапазон Хmin– Хmaxразбивается на ℓ интервалов. Размер интервала определяется по правилу Старджесса. D1;D2;D3;…;Dℓ.





mi> 3(в среднем 5 — 7).

При mi

Находим частоту попадания случайной величины внутрь каждого интер­ва­ла.

Поскольку теоретическое распределение задано в гипотезе Н0всегда можно найти вероятность piпопадания случайной величины внутрь каждого интервала.



χ2 Пирсона предполагает, что надо построить:

 

(имеет распределение χ2 только при относительно больших n(n> 50)).
Порядок применения χ2 Пирсона:


1.      Рассчитывается эмпирическое значение критерия χ2;

2.      Выбирается уровень значимости α (при Р = 1 — α);

3.      По таблице подсчитывается ,

где:α – уровень значимости;

                 к – число степеней свободы.

В общем случае к = ℓ — r– 1,

где:    ℓ — количество интервалов разбиения;

                   r– количество параметров распределения подсчитанных по выборке;

Здесь к = r– 1.

Если
Критерий Колмогорова.
По результатам выборки объёмом nстроится эмпирическая функция распределения F(х). Принимается гипотеза Н0: случайная величина Х подчиняется распределению описанному функцией F(x).

За меру расхождения функций принимается величина:





Существуют таблицы распределения Колмогорова в которых можно найти:

  — критическое значение. Оно зависит от уровня значимости α(Р = 1 — α), величины Dи величины выборки n.
Если полученные из опыта значения коэффициента Dоказывается больше критического , то Н0отвергается.

Если

С помощью величины  можно построить доверительные границы для неизвестной функции F(x):



Колмогоров показал, что при n→ ∞ величина:



подчиняется распределению Колмогорова.



Критерий Колмогорова так же может быть использован для статистической проверки принадлежности двух выборок объёмом n1и n2к одной и той же генеральной совокупности. Вычисляется параметр λ:



где:   — эмпирические функции распределения соответственно первой и второй выборки.

По величине λ судят о согласии.
Раздел 6.
Основы дисперсионного анализа.
Дисперсионный анализ– это статистический метод анализа результатов наблюдений зависящий от различных одновременно действующих факторов и позволяющий выбрать из ряда факторов наиболее важные, оценивать их влияние.

Основными предпосылками дисперсионного анализа является как правило нормальное распределение результатов наблюдений и отсутствие влияния исследуемых факторов на дисперсию результатов наблюдения.

Обязательным здесь является возможность управляемого изменения фактора в рамках его разновидностей называется уровнями фактора. Эти эксперименты могут быть пассивными, когда существование уровней и их смена является естественными для исследуемого объекта и активными, когда эти изменения искусственно вносятся экспериментатором по заранее составленному плану.

Идея дисперсионного анализа в разложении общей дисперсии случайной величины на независимые случайные слагаемые, каждый из которых характеризует влияние того или иного фактора, или их взаимодействие. Последующие сравнения этих дисперсий позволяют оценить сущность влияния факторов на исследуемую величину.

Пусть Х – это некоторая случайная величина зависящая от 2х действующих на неё факторов А и В.

— среднее значение исследуемой величины.

Отклонение:

где:    α – отклонение вызванное фактором А;

                   β – отклонение вызванное фактором В;

                   γ — отклонение вызванное другими факторами.

α, β, γ – случайные величины независимы.
Дисперсию случайной величины   Х, α, β, γ обозначим:



где: величина   — остаточная дисперсия учитывающая влияние случайных и прочих неучтённых факторов.

Для независимых и случайных величин имеет место равенство:



Сравнивая  или  с величиной  можно установить степень влияния факторов А и В на величину Х по сравнению с неучтёнными и случайными факторами.

Сравнивая между собой  и  мы можем оценить сравнительную сте­пень влияния факторов А и В на величину Х.

Дисперсионный анализ позволяет на основании выборочных данных най­ти все значения дисперсии . Далее используя соответствующие критерии можно оценить степень влияния параметров А и В на исследуемую случайную величину.

Если речь идёт о влиянии одного фактора на исследуемую случайную величину, то речь идёт об однофакторном дисперсионном анализе. Если же речь идёт о многих факторах, то говорят о многофакторном дисперсионном анализе.
Однофакторный дисперсионный анализ.

Большое количество практических задач приводится к задачам од­но­фак­торного дисперсионного анализа.

Типичным примером является работа технологической линии в составе ко­торой имеется несколько параллельных рабочих агрегатов.

На выходе имеют место какие-то детали. Эти детали по какому-то параметру можем контролировать.

Ясно, что среднее значения контролируемых параметров после каждого станка будут несколько отличаться.

Вопрос:Обусловлены ли эти отличия действием случайных факторов или имеет место влияние конкретного станка агрегата.

В данном случае фактор только один – станок.

Совокупность размеров деталей подчиняется нормальному закону распределения, и все эти совокупности имеют равные дисперсии.

Имеется mстанков, т.о. имеется mсовокупностей. Из этих совокупностей мы проводим выборки объёмом n. Так, что значение параметров i-той совокупности i: .

Все выборки можно записать в виде таблицы, которая называется матрицей наблюдения.



Выдвигаем гипотезу Н0заключающуюся в равенстве средних выборочных.



Гипотеза Н0проверяется сравнением внутригрупповых и межгрупповых дисперсий по Fкритерию Фишера.

Если расхождение незначительно, то принимается гипотеза Н0, в противном случае гипотеза Н0отвергается.



Далее находят сумму квадратов отклонений от общего среднего:



Ноль потому, что стоит сумма от   — сумма отклонений переменных одной совокупности от средней арифметической той же совокуп­ности.



Слагаемое Q1является суммой квадратов разностей между средними отдельных совокупностей и общей средней всех совокупностей. Эта сумма называется суммой квадратов отклонений между группами. Она характеризует систематическое отклонение между совокупностями наблюдений.

Величину Q1– рассеяние по фактору.

Слагаемое Q2– представляет собой сумма квадратов разностей между отдельными и средней соответствующей совокупности. Эта сумма называется суммой квадратов отклонений внутри группы.

Она характеризует остаточное рассеяние случайных погрешностей совокупностей.

Величина Qназывается общей или полной суммой квадратов отклонений отдельных отклонений от общей средней.

Получим оценки дисперсий:

— дисперсия обусловленная влиянием фактора;

  — остаточная дисперсия – влиянием случайных и других неучтённых факторов.

  — полная дисперсия.

Далее формируем оценку различия между оценками

 подчиняется распределению f2Фишера.
Выбираем уровень значимости α, или доверительной вероятности 1– α = Р и по таблице F-распределения с числом степеней свободы: к1 = m–1; к2 = m(n–1) находим критическое значение  Фишера.



Сравнивая между собой Fни Fкр,αмы делаем вывод насколько сильно влияние интересующего нас фактора на исследуемую случайную величину.

В этом и состоит идея дисперсионного анализа.

 

Однофакторный дисперсионный анализ обычно представляют в виде таблицы.





Компоненты дисперсии

Оценки дисперсии

Число степеней свободы

Основной фактор

Межгрупповая дисперсия



m — 1

Случайные, неучтенные факторы

Внутригрупповая дисперсия



m(n — 1)



Общая дисперсия



mn — 1


Основы регрессионного и корреляционного анализа.
Связи между различными явлениями в природе сложны и многообразны. В технике чаще всего речь идет о функциональной зависимости. В большинстве случаев интересующие нас явления протекают в условиях воздействия на них множества неконтролируемых факторов. Воздействие каждого из этих факторов в целом невелико, при этом связь теряет строгую функциональность и система переходит не в строго определенное состояние, а в одно из множества возможных. Речь идет о стохастической связи.

Под стохастической мы понимаем такую связь, когда одна случайная переменная реагирует на изменения другой случайной переменной изменением своего закона распределения.
    продолжение
--PAGE_BREAK--Наиболее широко в технике используется частный случай стохастической связи, называемый статистической связью, при которой условное МО некоторой случайной величины Yявляется функцией от значения, которое принимает другая случайная величина X:


Как правило исследуются такие виды статистической связи, при которых значение некоторой случайной переменной зависит в среднем от значений, принимаемых другой случайной переменной:



Такое представление зависимости между переменными Xи Yназывается полем корреляции. Можно также построить таблицу корреляции.

Проделывая операцию усреднения для всех тех значений Х, по которым есть экспериментальный материал, приходим к тому, что облако исчезает и получается набор точек, представляющих средние значения. Соединяя эти точки, получаем ломанную, называемую эмпирической линией регрессии.

Связь между СВ характеризуется формой и теснотой связи.
Определение фориы связи и понятие регрессии.

Определить форму связи между СВ – значит выявить механизм получения зависимой случайной величины. При изучении статистических связей, форму связей характеризует функция регрессии:

  — зависимость условного МО

Если св Х и Yзависимы, то МО их произведения:



Регрессия св Yотносительно Х определяется как:

,

 где   — условная плотность вероятности по формуле Байеса:



  — регрессия Х по Y.

Функция регрессии имеет важное практическое значение. Она может быть использована для прогноза значений, которые может принимать известная случайная величина при ставших известными значениях другой случайной величины.

Точность прогноза определяется дисперсией условного распределения:



учитывая: 
Несмотря на важность функции регрессии, возможности ее практического использования ограничены, т.к. для ее вычисления необходимо знать аналитический вид двумерной функции {x,y}. Мы же, как правило, имеем выборку ограниченного объема.

Традиционный путь приводи к большим ошибкам, т.к. одну и ту же совокупность точек на плоскости можно описать с помощью различных функций.

Другой характеристикой формы связи, используемой на практике, стала кривая регрессии – зависимость условного среднего случайной величины от значения, которое принимает случайная величина Х:  .

Определение кривой регрессии инвариантно закона совместного распределения св Х и Y. Важное значение в практике имеет двумерный нормальный закон распределения. Особенностью этого распределения является то, что условные МО совпадают с условными средними. При этом функция регрессии совпадает с кривой регрессии.

Линейная регрессия (ЛР). Метод наименьших квадратов.

Линейная регрессия занимает в технике и теории корреляции особое место. Она обусловлена двумерным нормальным законом распределения СВ Х и Y:

, где

а0и а1 – коэффициенты регрессии,

х – независимая случайная величина

Параметры уравнения регрессии определяются методом наименьших квадратов, предложенным Лагранжем и Гауссом, который сводится к следующему.

Строятся квадратичные формы:



xi– измеренное значение переменной,

e— истинное или теоретическое значение этой величины.

Требуется, чтобы сумма квадратов отклонений измеренных значений относительно истинных была минимальна.

В случае линейной регрессии за теоретическое значение принимается значение , т.е. ищется такая прямая линия с коэффициентами а0и а1, чтобы сумма квадратов отклонений от этой линии была минимальна.

,

уi– измеренное значение переменной Y.

Минимальные квадратичные формы получают, приравнивая к нулю ее производные по а0и а1:





Нелинейная регрессия (НР).

Форма связи между условными средними определяется уравнениями регрессии. В зависимости от вида уравнений можно говорить о ЛР или НР.

В общем случае эта зависимость может быть представлена в виде полинома степени k:



Определение коэффициентов регресии производится по методу наименьших квадратов:






В результате получаем систему нормированных уравнений:



Решая полученную систему известным способом, находим коэффициенты регрессии.

Измерение тесноты связи.

Если бы величина Yполностью определялась аргументом Х, все точки лежали бы на линии регрессии. Чем сильнее влияние прочих факторов, тем дальше отстоят точки от линии регрессии. В случае в) связь между Х и Yявляется более тесной.



За основу показателя, характеризующего тесноту связи, берется общий показатель изменчивости дисперсии:





                                                         (*)

  — дисперсия переменной Yотносительно теоретической линии дисперсии, определяющей влияние прочих факторов на величину Y.

  — условная дисперсия, характеризует дисперсию теоретической линии регрессии относительно условной генеральной средней my. Именно она определяет влияние данного фактора (Х) на величину Yи может быть использована для оценки тесноты связи между величинами Х и Y.

  — теоретическое корреляционное отношение.

 Изменяется от 0 до 1, что легко доказать, поделив (*) на sу2:



1)      Если =1, то

Влияние прочих факторов отсутствует. Все распределение будет сконцентрировано на линии регрессии. В этом случае между Х и Yсуществует простая функциональная зависимость.

2)      Если =0, когда .

В этом случае линия регрессии Yпо Х будет горизонтальной прямой, проходящей через центр распределения.

В случае, когда вид зависимости (форма связи) случайных величин Х и Yне установлен, часто бывает необходимо убедиться в наличии какой-либо связи вообще. Может оказаться, что связь несущественна и вычисление коэффициентов регрессии неоправданно.

Для объяснения такого вопроса вычисляется эмпирическое корреляционное отношение, определяемое на основе выборочных данных. При выводе формул для ЭКО пользуются эмпирической линией регрессии и оценкой дисперсии по выборке.

Определение эмпирического корреляционного соотношения.



y– измеряемое значение зависимой переменной

n– общее количество измерений

— условное среднее (среднее значение зависимой переменной у в i-ом интервале св Х)

k– общее количество интервалов

— среднее всей совокупности измерений

В пределах каждого интервала, для всех тех значений Х, для которых есть экспериментальные результаты (значения Y), находим средние значения.

Sy(x)2– составляющая полной дисперсии, характеризует дисперсию результатов измерений относительно эмпирической линии регрессии, т.е. влияние прочих факторов на зависимую переменную Y.

dy(x­)2– характеризует дисперсию эмпирической линии регрессии относительно среднего всей совокупности, т.е. влияние исследуемого  фактора на зависимую переменную Y.

  — Эмпирическое корреляционное соотношение

Из сравнения с формулой для теоретического корреляционного соотношения видно: при расчете теоретического корреляционного соотношения  необходимо знать форму связи между переменными.

При вычислении эмпирического корреляционного соотношения никакие предположения о форме связи не используются, нужна только эмпирическая линия регрессии.

Свойства:

1.      0 ££1

2.      если =1, все точки корреляционного поля лежат на линии регрессии – функциональная связь между Х и Y.

3.      Если =0 (когда ), отсутствует изменчивость условных средних , эмпирическая линия регрессии проходит параллельно оси абсцисс – свзи между Х и Yнет.

Эмпирическое корреляционное соотношение  завышает тесноту связи между переменными и случайными величинами, причем тем сильнее, чем меньше число измерений, поэтому  рекомендуется использовать для предварительной оценки тесноты связи, а для окончательной оценки – теоретическое корреляционное соотношение.

Коэфициент корреляции.


Рассмотрим случай вычисления теоретического корреляционного соотношения , когда связь между случайными величинами Х и Yявляется линейной.



Такая форма связи между Х и Yимеет место в случае, когда случайные величины подчиняются двуменому нормальному закону распределения.



Подставив вместо Yи их значения для случая линейной зависимости:

=

(х)=а0+ а1х

=

Заменим а1 ее значением, полученным из решения нормальных уравнений:





Коэфициент корреляции является частным случаем теоретического корреляционного соотношения , когда связь между СВ является линейной. В этом случае rявляется показателем тесноты связи.

   — выборочный корреляционный момент

             

Выборочный коэфициент корреляции обладает свойствами:

1.      r=0, если св Х и Yнезависимы

2.        — Для любых св Х и Y

3.        — Для случая линейной зависимости св Х и Y.

Коэфициент корреляции используется для оценки тесноты связи и в случае нелинейной зависимости между случайными величинами.

Если предварительный графический анализ поля корреляции указывает на какую либо тесноту связи, полезно вычислить коэфициент корреляции.

Если модуль коэфициента корреляции , то независимо от вида связи можно считать, что она достаточно тесна, чтобы исследоват ее форму. 
    продолжение
--PAGE_BREAK--


Не сдавайте скачаную работу преподавателю!
Данный реферат Вы можете использовать для подготовки курсовых проектов.

Поделись с друзьями, за репост + 100 мильонов к студенческой карме :

Пишем реферат самостоятельно:
! Как писать рефераты
Практические рекомендации по написанию студенческих рефератов.
! План реферата Краткий список разделов, отражающий структура и порядок работы над будующим рефератом.
! Введение реферата Вводная часть работы, в которой отражается цель и обозначается список задач.
! Заключение реферата В заключении подводятся итоги, описывается была ли достигнута поставленная цель, каковы результаты.
! Оформление рефератов Методические рекомендации по грамотному оформлению работы по ГОСТ.

Читайте также:
Виды рефератов Какими бывают рефераты по своему назначению и структуре.