Реферат по предмету "Математика"


Випадковий процес в математиці

Курсова робота
Випадковийпроцес в математиці

Зміст
Введення
1. Визначеннявипадкового процесу і його характеристики
2. Марковськівипадкові процеси з дискретними станами
3. Стаціонарнівипадкові процеси
4. Ергодичнавластивість стаціонарних випадкових процесів
Література

Введення
Поняття випадкового процесууведено в XX сторіччі й пов'язане з іменами А.Н. Колмогорова (1903-1987), А.Я.Хинчина (1894-1959), Е.Е. Слуцького (1880-1948), Н. Вінера (1894-1965). Цепоняття в наші дні є одним із центральних не тільки в теорії ймовірностей, алетакож у природознавстві, інженерній справі, економіці, організації виробництва,теорії зв'язку. Теорія випадкових процесів належить до категорії найбільше щошвидко розвиваються математичних дисциплін. Безсумнівно, що ця обставиназначною мірою визначається її глибокими зв'язками із практикою. XX століття немогло задовольнятися тим ідейною спадщиною, що було отримано від минулого.Дійсно, у той час, як фізика, біолога, інженера цікавив процес, тобто змінадосліджуваного явища в часі, теорія ймовірностей пропонувала їм як математичнийапарат лише засобу, що вивчали стаціонарні стани. Для дослідження зміни в часітеорія ймовірностей кінця XIX — початку XX століття не мало ні розробленихприватних схем, ні тим більше загальних прийомів. А необхідність їхньогостворення буквально стукала у вікна й двері математичної науки. Вивченняброунівського руху у фізику підвело математиків до порога створення теоріївипадкових процесів.
Вважаю за необхідне згадатище про дві важливі групи досліджень, початих у різний час і по різних приводах.
По-перше, ця роботи А.А.Маркова (1856-1922) по вивченню ланцюгових залежностей. По-друге, роботи Е.Е.Слуцького (1880-1948) по теорії випадкових функцій. Обоєцих напрямку грали дуже істотну роль у формуванні загальної теорії випадковихпроцесів.
Для цієї мети вже бувнакопичений значний вихідний матеріал, і необхідність побудови теорії як биносилися в повітрі.
Залишалося здійснити глибокийаналіз наявних робіт, висловлених у них ідей і результатів і на його базіздійснити необхідний синтез.

1. Визначеннявипадкового процесу і його характеристики
Визначення: Випадковим процесом X(t) називається процес,значення якого при будь-якому значенні аргументу t євипадковою величиною.
Інакше кажучи, випадковийпроцес являє собою функцію, що у результаті випробування може прийняти той абоінший конкретний вид, невідомий заздалегідь. При фіксованому t=t0 X(t0)являє собою звичайну випадкову величину, тобто перетин випадкового процесу вмомент t0.
Приклади випадкових процесів:
чисельність населення регіонуіз часом;
число заявок, що надходять уремонтну службу фірми, із часом.
Випадковий процес можназаписати у вигляді функції двох змінних X(t,?), де ?€?, t€T, X(t, ?) €? і? — елементарна подія,? — простір елементарних подій, Т — множина значеньаргументу t,? — множина можливих значень випадкового процесу X(t, ?).
Реалізацією випадковогопроцесу X(t, ω) називається невипадкова функція x(t), у яку перетворюєтьсявипадковий процес X(t) у результаті випробування (при фіксованому ω),тобто конкретний вид, прийнятий випадковим процесом X(t), його траєкторія.
Таким чином, випадковийпроцес X(t, ω) сполучає в собі риси випадкової величини й функції. Якщозафіксувати значення аргументу t, випадковий процес перетворюється у звичайнувипадкову величину, якщо зафіксувати ?, те в результаті кожного випробуваннявін перетворюється у звичайну невипадкову функцію. Надалі викладі опустимоаргумент ?, але він буде матися на увазі за замовчуванням.
На малюнку 1 зображено кількареалізацій деякого випадкового процесу. Нехай перетин цього процесу при даномуt є безперервною випадковою величиною. Тоді випадковий процес X(t) при даному tвизначається повністю ймовірності ?(x, t). Очевидно, що щільність ?(x, t) не євичерпним описом випадкового процесу X(t), тому що вона не виражає залежностіміж його перетинами в різні моменти часу.
Випадковий процес X(t) являєсобою сукупність всіх перетинів при всіляких значень t, тому для його описунеобхідно розглядати багатомірну випадкову величину (X(t1), X(t2),…, X(tn)), що складається із всіх сполучень цього процесу. Упринципі таких сполучень нескінченно багато, але для опису випадкового процесувдається частина обійтися відносно невеликою кількістю сполучень.
Говорять, що випадковийпроцес має порядок n, якщо він повністю визначається щільністю спільногорозподілу φ(x1, x2, …, xn; t1,t2, …, tn) n довільних перетинів процесу, тобто щільністюn-мірної випадкової величини (X(t1), X(t2), …, X(tn)),де X(ti) – сполучення випадкового процесу X(t) у момент часу ti,i=1, 2, …, n...
Як і випадкова величина,випадковий процес може бути описаний числовими характеристиками. Якщо длявипадкової величини ці характеристики є постійними числами, то для випадковогопроцесу – невипадковими функціями.
Математичним очікуваннямвипадкового процесу X(t) називається невипадкова функція ax(t), щопри будь-якому значенні змінної t дорівнює математичному очікуваннювідповідного перетину випадкового процесу X(t), тобто ax(t)=М[X(t)].
Дисперсією випадковогопроцесу X(t) називається невипадкова функція Dx(t), при будь-якомузначенні змінної t рівна дисперсії відповідного сполучення випадкового процесуX(t), тобто Dx(t)= D[X(t)].
Середнім квадратичнимвідхиленням σx(t) випадкового процесу X(t) називаєтьсяарифметичне значення кореня квадратного з його дисперсії, тобто σx(t)=Dx(t).
Математичне очікуваннявипадкового процесу характеризує середню траєкторію всіх можливих йогореалізацій, а його дисперсія або середнє квадратичне відхилення — розкидреалізацій щодо середньої траєкторії.
Уведених вище характеристиквипадкового процесу виявляється недостатньо, тому що вони визначаються тількиодномірним законом розподілу. Якщо для випадкового процесу Х1(t)характерно повільна зміна значень реалізацій зі зміною t, то для випадкового процесуХ2(t) ця зміна проходить значно швидше. Інакше кажучи, длявипадкового процесу Х1(t) характерна тісна імовірнісна залежністьміж двома його сполученнями Х1(t1) і Х1(t2),у той час як для випадкового процесу Х2(t) ця залежність міжсполученнями Х2(t1) і Х2(t2)практично відсутній. Зазначена залежність між сполученнями характеризуєтьсякореляційною функцією.
Визначення: Кореляційноюфункцією випадкового процесу Х(t)називається невипадкова функція
Kx(t1,t2) = M[(X(t1) – ax(t1))(X(t2)– ax(t2))] (1.)
двох змінних t1 іt2, що при кожній парі змінних t1 і t2 дорівнюєковариації відповідних сполучень Х(t1) і Х(t2) випадковіпроцеси.
Очевидно, для випадковогопроцесу Х(t1) кореляційна функція Kx1(t1, t2)убуває в міру збільшення різниці t2 — t1 значно повільніше,ніж Kx2(t1, t2) для випадкового процесу Х(t2).
Кореляційна функція Kx(t1,t2) характеризує не тільки ступінь тісноти лінійної залежності міждвома сполученнями, але й розкид цих сполучень щодо математичного очікування ax(t).Тому розглядається також нормована кореляційна функція випадкового процесу.
Нормованою кореляційноюфункцією випадкового процесу Х(t) називається функція:
Px(t1,t2) = Kx(t1, t2) / σx(t1)σx(t2)(2)

Приклад № 1
Випадковий процесвизначається формулою X(t) = X cosωt, де Х – випадкова величина. Знайтиосновні характеристики цього процесу, якщо М(Х) = а, D(X) = σ2.
Рішення:
На підставі властивостейматематичного очікування й дисперсії маємо:
ax(t) = M(Xcosωt) = cos?t * M(X) = a cos?t,
Dx(t) = D(Xcosωt) = cos2ωt * D(X) = σ2 cos2ωt.
Кореляційну функцію знайдемопо формулі (1.)
Kx(t1,t2) = M[(X cosωt1 – a cosωt1) (X cosωt2 – a cosωt2)] =
= cosωt1 cosωt2* M[(X – a)(X — a)] = cosωt1 cosωt2 * D(X) =σ2 cosωt1 cosωt2.
Нормовану кореляційну функціюзнайдемо по формулі (2.):
Px(t1,t2) = σ2 cosωt1 cosωt2/ (σ cosωt1)( σ cosωt2) ≡ 1.
Випадкові процеси можнакласифікувати залежно від того, плавно або стрибкоподібно міняються станисистеми, у якій вони протікають, або нескінченна множина цих станів і т.п.Серед випадкових процесів особливе місце належить Марковському випадковомупроцесу.
Теорема. Випадковий процесX(t) є Гильбертівим тоді й тільки тоді, коли існує R(t, t') для всіх (t, t')€T*T.
Теорію Гильбертівихвипадкових процесів називають кореляційною.
Помітимо, множина Т може бутидискретним і континуальним. У першому випадку випадковий процес Хt називаютьпроцесом з дискретним часом, у другому – з безперервним часом.
Відповідно сполучення Хtможуть бути дискретними й безперервними випадковими величинами.
Випадковий процес називаєтьсяХ(t) вибірково неправильним, і інтегрувальним у крапці ω€?, якщо йогореалізація x(t) = x(t, ?) відповідно безперервна, диференцуєма й інтегрувальна.
Випадковий процес Х(t)називається безперервним: майже, напевно, якщо
P(A)=1, A = {ω € Ω: lim x(tn) = x(t)}
У середньому, якщо
Lim M[(X(tn) –X(t))2] = 0
По ймовірності, якщо
Aδ ≥ 0: lim P[|X(tn) – X(t)| > δ] = 0
Збіжність у середньомупозначають також:
X(t) = lim X(tn)
Виявляється, з вибірковоїбезперервності треба безперервність майже напевно, з безперервності майженапевно й у середньому треба безперервність по ймовірності.
Теорема. Якщо X(t) – Гильбертіввипадковий процес, безперервний у середньому, то mx(t) – безперервнафункція й має місце співвідношення
Lim M [X(tn)] = M[X(t)] = M [lim X(tn)].

Теорема. Гильбертіввипадковий процес X(t) безперервний у середньому тоді й тільки тоді, колибезперервна його ковариаціона функція R(t, t') у крапці (t, t).
Гильбертів випадковий процесX(t) називається диференцуємим у середньому квадратичному, якщо існує випадковафункція X(t) = dX(t)/dt така, що
X(t) = dX(t)/ dt = limX(t+?t) — X(t) / ?t
(t € T, t +?t € T),
т.е. коли
Lim M [((X(t + ∆t) –X(t) / (∆t)) – X(t))2] = 0
Випадкову функцію X(t) будемоназивати похідній у середньому квадратичному випадкового процесу X(t)відповідно в крапці t або на T.
Теорема. Гильбертіввипадковий процес X(t) диференціюємо в середньому квадратичному у крапці t тодій тільки тоді, коли існує δ2 R(t, t’) / δt?t' у крапці (t,t'). При цьому:
Rx(t, t’) =M[X(t)X(t’)] = δ2 R(t, t’) / δt?t'.
Якщо Гильбертів випадковийпроцес диференціюємо на Т, то його похідна в середньому квадратичному також є Гильбертівимвипадковим процесом; якщо вибіркові траєкторії процесу диференцуєми на Т сімовірністю 1, то з імовірністю 1 їхні похідні збігаються з похідними всередньому квадратичному на Т.
Теорема. Якщо X(t) — Гильбертіввипадковий процес, то

M[dX(t) / dt] = (d / dt)M[X(t)] = dmx(t) / dt.
Нехай (0, t) – кінцевийінтервал, 0
X(t) — Гильбертів випадковийпроцес.
Yn = ∑ X(ti)(ti– ti-1) (n = 1,2, …)...
Тоді випадкова величина
Y(t) = lim Yn
max (ti – ti-1)→0
Називається інтегралом усередньому квадратичному процесу X(t) на (0, t) і позначається:
Y(t) =? X(?)d?.
Теорема. Інтеграл Y(t) усередньому квадратичному існує тоді й тільки тоді, коли коваріаціона функціяR(t, t') Гильбертіва процесу X(t) безперервна на Т? Т і існує інтеграл
Ry (t, t’) = ∫? R(?, ?') d?d?’
Якщо інтеграл у середньому квадратичномуфункції X(t) існує, то
M[Y(t)] =? M[X(?)]d?,
RY(t, t’) = ∫? R(?, ?')d?d?’
Ky (t, t’) = ∫? K(?, ?')d?d?’

Тут Ry(t, t’) =M[Y(t)Y(t’)], Ky(t, t’) = M[Y(t)Y(t’)] –кореляційна функціївипадкового процесу Y(t).
Теорема. Нехай X(t) — Гильбертіввипадковий процес із функцією R(t, t'), ?(t) — речовинна функція й існуєінтеграл
?? ?(t)?(t')R(t, t')dtdt'
Тоді існує в середньому квадратичномуінтеграл
? ?(t)X(t)dt.
Випадкові процеси:
Xi(t) = Viφi(t)(i = 1n)
Де φi(t) –задані речовинні функції
Vi — випадковівеличини з характеристиками
M(VI = 0), D(VI)= DI, M(ViVj) = 0 (i ≠ j)
Називають елементарними.
Канонічним розкладаннямвипадкового процесу X(t) називають його подання у вигляді
X(t) = mx(t) + ∑Viφi(t) (t € T)
Де Vi –коефіцієнти, а φi(t) – координатні функції канонічногорозкладання процесу X(t). З відносин:
M(VI = 0), D(VI)= DI, M(ViVj) = 0 (i ≠ j)
X(t) = mx(t) + ∑Viφi(t) (t € T)

Треба:
K(t, t’) = ∑ Diφi(t)φi(t’)
Цю формулу називаютьканонічним розкладанням кореляційної функції випадкового процесу.
У випадку рівняння
X(t) = mx(t) + ∑Viφi(t) (t € T)
Мають місце формули:
X(t) = mx(t) + ∑Viφ(t)
∫ x(τ)dt = ∫mx(τ)dτ + ∑ Vi ∫ φi(t)dt.
Таким чином, якщо процес X(t)представлений його канонічним розкладанням, те похідна й інтеграл від ньоготакож можуть бути представлені у вигляді канонічних розкладань.
2. Марковськівипадкові процеси з дискретними станами
Випадковий процес, щопротікає в деякій системі S з можливими станами S1, S2, S3,…, називається Марковським, або випадковим процесом без наслідку, якщо для будь-якогомоменту часу t0імовірні характеристики процесу в майбутньому (приt>t0) залежить тільки від його стану в цей момент t0іне залежать від того, коли і як система прийшла в цей стан; тобто не залежатьвід її поводження в минулому (при t
Прикладом Марковськогопроцесу: система S – лічильник у таксі. Стан системи в момент tхарактеризується числом кілометрів (десятих часток кілометрів), пройденихавтомобілем до даного моменту. Нехай у момент t0лічильник показує S0/Імовірність того, що в момент t>t0лічильник покаже те або іншечисло кілометрів (точніше, що відповідає число рублів) S1 залежитьвід S0, але не залежить від того, у які моменти часу змінилисяпоказання лічильника до моменту t0.
Багато процесів можнаприблизно вважати Марковськими. Наприклад, процес гри в шахи; система S – групашахових фігур. Стан системи характеризується числом фігур супротивника, щозбереглися на дошці в момент t0. Імовірність того, що в моментt>t0матеріальна перевага буде на боці одного із супротивників,залежить у першу чергу від того, у якому стані перебуває система в цей момент t0,а не від того, коли й у якій послідовності зникли фігури з дошки домоменту t0.
У ряді випадків передісторієюрозглянутих процесів можна просто зневажити й застосовувати для їхньоговивчення Марковські моделі.
Марковським випадковимпроцесом з дискретними станами й дискретним часом (або ланцюгом Маркова)називається Марковський процес, у якому його можливі стани S1, S2,S3, … можна заздалегідь перелічити, а перехід зі стану в стан відбуваєтьсямиттєво (стрибком), але тільки в певні моменти часу t0, t1,t2, ..., називані кроками процесу.
Позначимо pij –імовірність переходу випадкового процесу (системи S) зі стану I у стан j. Якщоці ймовірності не залежать від номера кроку процесу, то такий ланцюг Маркованазивається однорідної.
Нехай число станів системизвичайно й дорівнює m. Тоді її можна характеризувати матрицею переходу P1,що містить всі ймовірності переходу:
p11 p12 …p1m
p21 p22… p2m
… … … …
Pm1 pm2… pmm

Природно, по кожному рядку ∑pij = 1, I = 1, 2, …, m...
Позначимо pij(n) –імовірністю того, що в результаті n кроків система перейде зі стану I у стан j.При цьому при I = 1 маємо ймовірності переходу, що утворять матрицю P1,тобто pij(1) = pij
Необхідно, знаючи ймовірностіпереходу pij, знайти pij(n) – імовірності переходусистеми зі стану I у стан j за n кроків. Із цією метою будемо розглядатипроміжне (між I і j) стан r, тобто будемо вважати, що з первісного стану I за kкроків система перейде в проміжний стан r з імовірністю pir(k),після чого за що залишилися n-k кроків із проміжного стану r вона перейде вкінцевий стан j з імовірністю prj(n-k). Тоді по формулі повноїймовірності
Pij(n) = ∑ pir(k) prj (n-k) – рівність Маркова.
Переконаємося в тім, що,знаючи всі ймовірності переходу pij = pij(1), тобтоматрицю P1 переходу зі стану в стан за один крок, можна знайтиймовірність pij(2), тобто матрицю P2 переходи зі стану встан за два кроки. А знаючи матрицю P2, — знайти матрицю P3переходи зі стану в стан за три кроки, і т.д.
Дійсно, думаючи n = 2 уформулі Pij(n) = ∑ pir (k) prj (n-k),тобто k=1 (проміжне між кроками стан), одержимо
Pij(2) = ∑ pir(1)prj(2-1) = ∑ pir prj
Отримана рівність означає, щоP2 =P1P1 = P21
Думаючи n = 3, k = 2,аналогічно одержимо P3 = P1P2 = P1P12= P13, а в загальному випадку Pn = P1n
Приклад
Сукупність родин деякогорегіону можна розділити на три групи:
родини, що не маютьавтомобіля й не збираються його купувати;
родини, що не маютьавтомобіля, але які бажаютьйого придбати;
родини, що мають автомобіль.
Проведене статистичнеобстеження показало, що матриця переходу за інтервал в один рік має вигляд:
0,8 0,1 0,1
0 0,7 0,3
0 0 1
(У матриці P1елемент р31 = 1 означає ймовірність того, що родина, що маєавтомобіль, також буде його мати, а, наприклад, елемент р23 = 0,3 –імовірність того, що родина, що не мала автомобіля, але намагаються йогопридбати, здійснить свій намір у наступному році, і т.д.)
Знайти ймовірність того, що:
родина, що не мала автомобіляй не хоче його придбати, буде перебувати в такій же ситуації через два роки;
родина, що не малаавтомобіля, але які бажають його придбати, буде мати автомобіль через два роки.
Рішення: знайдемо матрицюпереходу Р2 через два роки:
0,8 0,1 0,1 0,8 0,1 0,1 0,640,15 0,21
0 0,7 0,3 0 0,7 0,3 0 0,490,51
0 0 1 0 0 1 0 0 1
Тобто шукані в прикладі 1) і2) імовірності рівні відповідно
р11 =0,64, р23=0,51
Далі розглянемо Марковськийвипадковий процес із дискретними станами й безперервним часом, у якому, навідміну від розглянутої вище ланцюга Маркова, моменти можливих переходівсистеми зі стану не фіксовані заздалегідь, а випадкові.
При аналізі випадковихпроцесів з дискретними станами зручно користуватися геометричною схемою – такзваним графіком подій. Звичайно стану системи зображуються прямокутниками(кружками), а можливі переходи зі стану в стан — стрілками (орієнтованимидугами), що з'єднують стану.
Приклад. Побудувати графстанів наступного випадкового процесу: пристрій S складається із двох вузлів,кожний з яких у випадковий момент часу може вийти з ладу, після чого миттєвопочинається ремонт вузла, що триває заздалегідь невідомий випадковий час.
Рішення. Можливі станисистеми: S0 – обидва вузли справні; S1 – перший вузолремонтується, другий справний; S2 – другий вузол ремонтується,перший справний; S3 – обидва вузли ремонтуються.
Стрілка, напрямку, наприклад,з S0в S1, означає перехід системи в момент відмовапершого вузла, з S1 в S0– перехід у момент закінченняремонту цього вузла. На графі відсутні стрілки з S0в S3і з S1 в S2. Це пояснюється тим, що виходи вузлів з ладупередбачається незалежними друг від друга й, наприклад, імовірностямиодночасного виходу з ладу двох вузлів (перехід з S0в S3)або одночасне закінчення ремонтів двох вузлів (перехід з S3 в S0)можна зневажити.
3. Стаціонарнівипадкові процеси
Випадковий процес Х(t)називають стаціонарним у вузькому змісті, якщо
F(x1, …, xn;t1, …, tn) = F(x1, …, xn; t1+∆,…, tn+∆)

При довільних
n≥1, x1, …,xn, t1, …, tn; ∆; t1 € T, ti+ ∆ € T...
Тут F(x1, …, xn;t1, …, tn) – n-мірна функція розподілу випадковогопроцесу Х(t).
Випадковий процес Х(t)називають стаціонарним у широкому змісті, якщо
m(t) = m(t + ?), K(t, t') =K(t + ?, t' + ?)
(t € T, t' € T, t + ?€ T), t'+ ?€ T)
Очевидно, що зістаціонарності у вузькому змісті треба стаціонарність у широкому змісті.
З формул:
m(t) = m(t + ?), K(t, t') =K(t + ?, t' + ?)
(t € T, t' € T, t + ?€ T), t'+ ?€ T)
Треба, що для процесу,стаціонарного в широкому змісті, можна записати
m (t) = mx(0) =const;
D (t) = K(t, t) = K(0,0) =const;
K(t, t') = K(t — t', 0) = K(0, t' — t)
Таким чином, для процесу,стаціонарного в широкому змісті, математичне очікування й дисперсія не залежатьвід часу, а K(t, t') представляє собою функцію виду:

K(t, t') = k(?) = k(-?),? =t' — t.
Видно, що k(?) — парнафункція, при цьому
K(0) = В = σ2;|k(τ)| ≤ k(0); ∑ ∑ άi αj k(ti — tj) ≥ 0
Тут D — дисперсіястаціонарного процесу
Х(t), αi (I =1, n) – довільні числа.
Перша рівність системи
K(0) = В = σ2;|k(τ)| ≤ k(0); ∑ ∑ άi αj k(ti — tj) ≥ 0
треба з рівняння K(t, t') =k(?) = k(-?),? = t' — t. Перша рівність
K(0) = В = σ2;|k(τ)| ≤ k(0); ∑ ∑ άi αj k(ti — tj) ≥ 0 — простий наслідок нерівності Шварца для перетинівX(t), X(t') стаціонарного випадкового процесу X(t). Остання нерівність:
K(0) = В = σ2;|k(τ)| ≤ k(0); ∑ ∑ άi αj k(ti — tj) ≥ 0
Одержують у такий спосіб:
∑ ∑ αiαj k(ti — tj) = ∑ ∑ K(ti,tj)αi αj = ∑ ∑ M[(αiXi)(αjXj)]= M[(∑ αiXi)2] ≥0
З огляду на формулукореляційної функції похідній dX(t)/dt випадкового процесу, для стаціонарноївипадкової функції X(t) одержимо
K1(t, t’) =M[(dX(t)/dt)*(dX(t’)/dt’)] = δ2K(t, t’) / δtδt’ =δ2k(t’ — t) / δt?t'

Оскільки
?k(t' — t) / ?t = (?k(?) /??) * (?? / ??) = — ?k(?) / ??,
δ2k(t’ — t) /δtδt’ = — (δ2 k(τ) / δτ2) *(δτ / δt’) = — (δ2 k(τ) / δτ2)
те K1(t, t’) = k1(τ)= — (δ2 k(τ) / δτ2), τ = t' — t.
Тут K1(t, t’) і k1(τ)– кореляційна функція першій похідній стаціонарного випадкового процесу X(t).
Для n-й похіднійстаціонарного випадкового процесу формула кореляційної функції має вигляд:
Kn(τ) = (-1)n* (δ2n *k(τ) / δτ2n)
Теорема. Стаціонарнийвипадковий процес X(t) з кореляційною функцією k(?) безперервний у середньому квадратичномуу крапці t € T тоді й тільки тоді, коли
Lim k(?) = k(0)
Для доказу запишемо очевиднийланцюжок рівностей:
M [|X(t+τ)-X(T)|2]= M[|X(t)|2] – 2M[|X(t+τ)X(t)|] + M[X(t)2] =
= 2D-2k(?) = 2[k(0)-k(?)].
Звідси очевидно, що умовабезперервності в середньому квадратичному процесу X(t) у крапці t € T
Lim M[|X(t+τ) – X(t)|2]= 0

Має місце тоді й тільки тоді,коли виконується Lim k(?) = k(0)
Теорема. Якщо кореляційнафункція k(τ) стаціонарного випадкового процесу X(t) безперервна всередньому квадратичному у крапці τ=0, то вона безперервна в середньому квадратичномуу будь-якій крапці τ € R1.
Для доказу запишемо очевиднірівності:
k(?+??)-k(?) =M[X(t+?+??)X(t)] — M[X(t+?)X(t)] =
= M{X(t)[X(t+?+??) — X(t+?)]}
Потім, застосовуючинерівність Шварца до співмножників у фігурній дужці й з огляду наспіввідношення:
K(t, t') = k(?) = k(-?),? =t' — t.
K(0) = В = σ2;|k(τ)| ≤ k(0); ∑ ∑ άi αj k(ti — tj) ≥ 0
Одержимо:
0 ≤ [k(τ+∆τ)-k(τ)]2≤M[X(t)2]M[|X(t+τ+∆τ)-X(t+τ)|2] =
= 2D[D-k(??)].
Переходячи до межі при??>0 і беручи до уваги умова теореми про безперервність k(?) у крапці ?=0, атакож перша рівність системи
K(0) = В = σ2,знайдемо
Lim k(?+??) = k(?)
Оскільки тут? — довільнечисло, теорему варто вважати доведеної.

4. Ергодичнавластивість стаціонарних випадкових процесів
Нехай Х(t) — стаціонарнийвипадковий процес на відрізку часу [0,T] з характеристиками
M[X(t)] = 0, K(t, t') =M[X(t)X(t')] = k(?),
? = t' — t, (t, t') € T?T.
Ергодична властивістьстаціонарного випадкового процесу полягає в тім, що по досить тривалійреалізації процесу можна судити про його математичне очікування, дисперсію,кореляційній функції.
Більш строго стаціонарнийвипадковий процес Х(t) будемо називати ергодичним по математичному очікуванню,якщо
Lim M {|(1/ T)∫ X(t)dt|2}= 0
Теорема
Стаціонарний випадковийпроцес Х(t) з характеристиками:
M[X(t)] = 0, K(t, t') =M[X(t)X(t')] = k(?),
? = t' — t, (t, t') € T?T
є ергодичним по математичномуочікуванню тоді й тільки тоді, коли
Lim (2/ T)? k(?) (1 — ?/t)d?= 0.
Для доказу, мабуть, доситьпереконатися, що справедливо рівність
M{(1/ T) ∫X(t)dt|2}= (2/ T) ∫ k(?) (1 — ?/t)d?

Запишемо очевидніспіввідношення
C = M {|(1/ T) ) ∫X(t)dt|2}= (1/ T2) ∫? k(t' — t)dt'dt = (1/T)? dt? k(t' — t)dt'.
Думаючи тут? = t' — t, d? =dt' і з огляду на умови (t' = T) > (? = T — t),
(t' = 0)>(? = -t), одержимо
З = (1/T2) ∫dt ∫ k(τ)dτ = (1/T2) ∫ dt ∫k(τ)dτ + (1/T2) ∫ dt? k(?)d? =
= -(1/T2) ∫dt ∫ k(τ)dτ — (1/T2) ∫ dt? k(?)d?
Думаючи в першому й другомудоданках правої частини цієї рівності відповідно? = -?', d? = -d?',? = T-?',d? = -d?', знайдемо
З = (1/T2) ∫dt ∫ k(τ)dτ + (1/T2) ∫ dt? k(T — ?)d?
Застосовуючи формулу Дирихледля подвійних інтегралів, запишемо
З = (1/T2) ∫dt ∫ k(τ)dτ + (1/T2) ∫ dt ∫ k(T — τ)dτ = (1/T2) ∫ (T — τ) k(τ)dτ + (1/T2)∫ ?k (T — ?)d?
У другому доданку правоїчастини можна покласти ?' = T-?, d? = -d?', після чого будемо мати
З = (1/Т2) ∫(Т — τ) k(τ)dτ – (1/T2) ∫ (T — ?) k(?)d? = 2/T? (1- (?/T)) k(?)d?
Звідси й з визначенняконстант видно, що рівність
M{(1/ T) ∫X(t)dt|2}= (2/ T) ∫ k(?) (1 — ?/t)d?

Справедливо.
Теорема
Якщо кореляційна функція k(?)стаціонарного випадкового процесу X(t) задовольняє умові
Lim (1/T)? |k(?)| dt = 0
Те X(t) є ергодичним поматематичному очікуванню.
Дійсно, з огляду наспіввідношення
M{(1/ T) ∫X(t)dt|2}= (2/ T) ∫ k(?) (1 — ?/t)d?
Можна записати
0? (2/Т)? (1 — ?/t) k(?)d?? (2/T)? (1- ?/t) |k(?)|d?? (1/T)? |k(?)|d?
Звідси видно, що якщовиконано умову, те
Lim (2/T)? (1 — ?/T) k(?)d?= 0
Тепер, беручи до увагирівність
З = (1/Т2) ∫(Т — τ) k(τ)dτ – (1/T2) ∫ (T — ?) k(?)d? = 2/T? (1- (?/T)) k(?)d?
І умова Lim M {|(1/ T)∫X(t)dt|2} = 0
Ергодичності по математичномуочікуванню стаціонарного випадкового процесу X(t), знаходимо, що необхіднедоведено.
Теорема.
Якщо кореляційна функція k(?)стаціонарного випадкового процесу
X(t) інтегрувальна йнеобмежено убуває при? > ?, тобто виконується умова
При довільному? > 0, тоX(t) — ергодичний по математичному очікуванню стаціонарний випадковий процес.
Дійсно, з огляду на вираження
Для Т≥Т0маємо
(1/T) ∫|k(τ)|dτ = (1/T)[ ∫ |k(τ)|dτ + ∫|k(τ)|dτ ≤ (1/T) ∫ |k(τ)|dτ ε(1 – T1/T).
Переходячи до межі при Т >?, знайдемо
0? lim? |k(?)|d? = ?.
Оскільки тут? > 0 — довільна, скільки завгодно мала величина, то виконується умова ергодичності поматематичному очікуванню. Оскільки це треба з умови. Про необмежене убуванняk(?), те теорему варто вважати доведеної. Доведені теоремивстановлюють конструктивні ознаки ергодичності стаціонарних випадковихпроцесів.
Нехай
X(t) = m + X(t), m=const.
Тоді M[X(T)] = m, і якщо X(t)- ергодичний стаціонарний випадковий процес, то умова ергодичності Lim M {|(1/T)∫ X(t)dt|2} = 0 після нескладних перетворень можнапредставити у вигляді
Lim M{[(1/T) ∫ X(t)dt –m]2} = 0
Звідси треба, що якщо X(t) — ергодичнийпо математичному очікуванню стаціонарний випадковий процес, то математичнеочікування процесу X(t) = m + X(t) приблизно може бути обчислене по формулі

M = (1/T)? x(t)dt
Тут Т — досить тривалийпроміжок часу;
x(t) — реалізація процесуX(t) на відрізку часу [0, Т].
Можна розглядати ергодичністьстаціонарного випадкового процесу X(t) по кореляційній функції.
Стаціонарний випадковийпроцес X(t) називається ергодичним по кореляційній функції, якщо
Lim M {[ (1/T) ∫ X(t)X(t + τ)dt – k(τ)]2]} = 0
Звідси треба, що для ергодичногопо кореляційній функції стаціонарного випадкового процесу X(t) можна покласти
k (?) = (1/T)? x(t)x(t +?)dt
при досить великому Т.
Виявляється, умова обмеженостіk(?) досить для ергодичності по кореляційній функції стаціонарного нормальнорозподіленого процесу X(t).
Помітимо, випадковий процесназивається нормально розподіленим, якщо будь-яка його функція розподілу єнормальною.
Необхідною й достатньоюумовою ергодичності стаціонарного нормально розподіленого випадкового процесу єспіввідношення
τ0: lim(1/T) ∫ [k(τ)2 + k(τ + τ0) k(τ– τ0)] (1 – τ/T)d? = 0

Література
1.Кремер М.Ш. Теорія ймовірностей і математичнастатистика. – К., 2004
2.Кожевников Ю.В. Теорія ймовірностей і математичнастатистика. – К., 2005
3.Гнеденко Б.Д. Курс теорії ймовірностей. – К., 2005


Не сдавайте скачаную работу преподавателю!
Данный реферат Вы можете использовать для подготовки курсовых проектов.

Поделись с друзьями, за репост + 100 мильонов к студенческой карме :

Пишем реферат самостоятельно:
! Как писать рефераты
Практические рекомендации по написанию студенческих рефератов.
! План реферата Краткий список разделов, отражающий структура и порядок работы над будующим рефератом.
! Введение реферата Вводная часть работы, в которой отражается цель и обозначается список задач.
! Заключение реферата В заключении подводятся итоги, описывается была ли достигнута поставленная цель, каковы результаты.
! Оформление рефератов Методические рекомендации по грамотному оформлению работы по ГОСТ.

Читайте также:
Виды рефератов Какими бывают рефераты по своему назначению и структуре.