Введение
В статистической радиотехнике частот приходится иметь дело одновременнос несколькими случайными величинами, например, мгновенные значения напряжения навыходах антенной решетки при воздействии на ее вход сигналов и помех и т.д. Свойствасистемы нескольких СВ не исчерпываются свойствами отдельной СВ, так как при этомнеобходимо описание связи между составляющими системы СВ.
1. Функции распределения системы из двух случайных величин
Функцией распределения системы из двух СВ /> называется вероятность совместноговыполнения двух неравенств /> и />:
/>.
По определению, функция распределения /> есть вероятность попаданияслучайной точки с координатами /> в квадрат с бесконечными размерами,расположенный левее и ниже этой точки на плоскости />. Отдельно для каждой СВ X и Y можно определить одномерную функцию распределения, например,/> есть вероятностьпопадания в полуплоскость, расположенную левее точки с координатой x. Также и /> есть вероятность попадания в полуплоскостьниже точки y.
Свойства />:
1) /> есть неубывающая функция обоих своихаргументов;
2) на — ¥ по обеимосям она равна нулю;
3) при равенстве +¥одного из аргументов согласно другому аргументу она превращается в одномерную функциюраспределения;
4) если оба аргумента равны +¥,то /> = 1.
Вероятность попадания случайной точки в квадрат R с координатами /> по оси x и /> по оси y равна
/>.
/> существует как для непрерывных, таки для дискретных СВ.
2. Двумерная плотность вероятности
Двумерная плотность вероятности есть предел следующего отношения:
/>.
Если /> не только непрерывна, но и дифференцируема,то двумерная плотность вероятности /> есть вторая смешанная частная производнаяфункции /> поx и по y.
Размерность /> обратна произведению размерностейСВ X и Y.
Таким образом, двумерная плотность вероятности есть предел отношениювероятности попадания точки в малый прямоугольник к площади этого прямоугольника,когда оба размера прямоугольника стремятся к нулю. Геометрически /> можно представить как некоторуюповерхность.
Если рассечь эту поверхность плоскостью, параллельной плоскостиx0y, и спроецироватьполученное сечение на плоскость x0y, то получится кривая, называемая «кривой равной плотностивероятности».
Иногда удобно рассматривать семейства кривых равной плотностипри разных уровнях сечения. Как и для одномерной плотности вероятности, здесь вводитсяпонятие элемента вероятности/>.
Вероятность попадания случайной точки в произвольную областьG определяется двумерныминтегралом от /> по этой области. Геометрически этообъем, ограниченный /> и областью G.
Если G естьпрямоугольник с координатами вершин по оси x: /> и />, а по оси y: /> и />, то вероятность попадания случайнойточки в этот прямоугольник определяется интегралом
/>.
Свойства двумерной плотности вероятности:
/> есть неотрицательная величина;
свойство нормировки аналогично одномерной плотности вероятности,но при двумерном интегрировании в бесконечных пределах. 3. Условные законы распределения отдельных СВ, входящих в систему СВ
Имея закон распределения системы двух СВ, всегда можно определитьзаконы распределения отдельных СВ, входящих в систему. Например, /> и />. Если известнаплотность вероятности />, то />.
Аналогично определяется />.
Таким образом, зная двумерную плотность вероятности, всегда можноопределить одномерную плотность вероятности. Обратную задачу в общем случае решитьневозможно. Ее можно решить, если известны условные плотности вероятности или функциираспределения.
Условным законом распределения СВ, входящей в систему, называетсяее закон распределения, определенный при условии, что другая СВ приняла определенноезначение: />.В этом случае можно найти двумерную плотность вероятности по формуле />. Из этих выраженийследует:
/>, />. 4. Статистическая взаимозависимость и независимость
СВ X называетсянезависимой от СВ Y, если закон распределения величиныX не зависит от того, какоезначение приняла СВ Y. В этом случае /> при любом y. Необходимо заметить, что если СВ X не зависит от СВ Y, то и СВ Y не зависит от СВ X. Для независимых СВ теорема умножения законов распределенияимеет вид:
/>.
Это условие рассматривается как необходимое и достаточноеусловие независимости СВ. Различают понятия функциональной и статистической зависимостей.При статистической зависимости нельзя указать точно значение, которое принимаетодна из СВ, если известно значение другой, можно лишь определить влияние в среднем.Но по мере увеличения взаимозависимости статистическая зависимость превращаетсяв функциональную.5. Числовые характеристики системы двух СВ. Коррелированность
Как и для одной СВ, для системы двух СВ можно использовать начальныеи центральные моменты.
Начальным моментом порядка k,s системы (X,Y) называется МО произведения: />; />.
Центральным моментом порядка k,s системы (X,Y) называется МО произведения k-й и s-й степени соответствующихцентрированных величин.
Для непрерывных СВ –
/>,
/>.
Первый начальный момент есть МО для соответствующей СВ X или Y.
Аналогично имеются и вторые центральные моменты системы СВ: /> и />, которые характеризуютстепень разбросанности случайной точки вдоль осей x и y соответственно.
Особую роль в статистической радиотехнике играет второй смешанныйцентральный момент /> = KXY — корреляционный момент.
Для непрерывных СВ корреляционный момент выражается формулой
/>.
Этот момент, кроме рассеивания СВ, характеризует и взаимозависимостьСВ X и Y. При этом, если СВ X и Y независимы,то />. Докажемэто предположение: если СВ X иY независимы, />, то последнийинтеграл распадается на два независимых интеграла, в которых имеется произведениедвух первых центральных моментов. Эти моменты равны нулю.
Чтобы исключить влияние разбросанности СВ на корреляционный момент,его делят на произведение среднеквадратических отклонений СВ X и СВ Y.Получается безразмерная величина, имеющая название «коэффициент корреляции»:/>. Если СВ X и СВ Y независимы, то всегда /> Значит, независимые СВ всегда некоррелированы,однако обратное не всегда верно. Коррелированность характеризует не всякую взаимозависимость,а лишь линейную статистическую взаимозависимость. Это означает, что при возрастанииодной СВ МО другой имеет тенденцию возрастать (или убывать) в среднем по линейномузакону. Коэффициент корреляции характеризует степень разбросанности координат точкиотносительно линейной зависимости между X и Y. Если СВ X и Y имеют линейную функциональную зависимость, то коэффициент корреляцииравен ±1, в зависимости от знака наклонаэтой функции. При этом говорят о положительной или отрицательной корреляции.
Во многих радиотехнических устройствах имеются типовые радиотехническиетракты, состоящие из трех каскадно соединенных элементов: входной линейной цепи,нелинейного безынерционного элемента и выходной линейной цепи. В качестве этих элементовмогут выступать различные электрические цепи с заданными характеристиками. На входрадиотехнического тракта воздействует аддитивная смесь сигнала и помехи:
/>,
где s (t)- сигнал в виде гармонического или квазигармонического колебания; x (t) — гауссовпроцесс с равномерной спектральной плотностью мощности (белый или квазибелый шум).
Известно [2], что в таких условиях при решении задачи обнаружениякритерием качества работы устройства может служить отношение сигнал/помеха, котороеопределяется тремя выражениями:
система случайная величина
отношение сигнал/помеха по уровню />, где As — амплитуда сигнала; /> - дисперсия шума;
отношение сигнал/помеха по мощности />;
энергетическое отношение сигнал/помеха />, где /> - энергия сигнала; /> - спектральнаяплотность мощности помехи (белого или квазибелого шума).
Если длительность сигнала />, то />, а />, где /> - ширина энергетической полосы квазибелогошума.
Плотность вероятности сигнала (со случайной начальной фазой)
/>, />, а шума- />.
Если сигнал и помехи независимы, то />, и плотность вероятностиих смеси определяется интегралом свертки:
/>. 6. Произвольное число СВ
Часто приходится иметь дело в статистической радиотехнике с системамимногих СВ. В этом случае полной характеристикой системы СВ может служить закон распределениявсей системы СВ. Например, имеется многоканальная в пространстве антенная система,с помощью которой прием ведется в нескольких точках пространства. При этом и обработкасигналов в приемных пунктах производится совместно. Для представления законов распределениясистемы более чем трех СВ приходится использовать многомерное пространство. Связьмежду функцией распределения и плотностью вероятности в этом случае обеспечиваетсяn-мерной производной (n- число СВ, входящих в систему).
Вероятность попадания координат случайной точки в ограниченноепространство n-мерной системы определяетсяn-кратным интегрированием по этому пространству плотностивероятности. 7. Числовые характеристики системы нескольких СВ
Закон распределения системы СВ (функции распределения или плотностивероятности) является полной, исчерпывающей характеристикой системы нескольких СВ.Однако не всегда возможно применять такое описание СВ. Например, из-за ограниченностиэкспериментального материала или из-за того, что такое описание обладает излишнейгромоздкостью. Кроме того, очень часто тип распределения известен (например, n-мерный нормальный). Поэтому применяют описание системы СВс помощью ограниченного числа числовых характеристик. К таким характеристикам относятся:
N математическихожиданий (МО), характеризующих средние значения входящих в систему СВ;
N дисперсий,характеризующих степень их разбросанности относительно своих МО;
N (N- 1) корреляционных моментов, определяющих попарную корреляцию СВ в системе:/>.
Следует отметить, что корреляционный момент при i = j превращается в дисперсию, т.е. />.
Часто все корреляционные моменты располагают в виде так называемойкорреляционной матрицы:
/>.
По определению корреляционного момента, />. Следовательно, корреляционнаяматрица всегда «симметрическая», т.е. ее элементы, симметричные относительнодиагонали, равны между собой. Обозначают ее символом />. Вдоль главной диагонали располагаютсядисперсии. Если все СВ, входящие в систему СВ, некоррелированы, то все элементыматрицы, кроме диагональных, равны нулю. Иногда пользуются нормированной корреляционнойматрицей, составленной из коэффициентов корреляции: />. Если все СВ некоррелированы, то образуетсяединичная матрица, у которой диагональные элементы — единицы, а недиагональные- нули.
В отношении с/п = |y (t0) |/ snвых числительдолжен быть максимальным в заданный момент времени, поэтому необходимо рассматриватьфазовый спектр. Так как спектр представлен в виде косинусных колебаний, они должнысуммироваться на выходе цепи в фазе, чтобы максимальное мгновенное значение былопри t = t0, т.е. jк(w) = -js(w) — wt0 — такие требования к фазовой характеристике обеспечатзаданные требования по максимизации y (t0). Модуль передаточнойфункции цепи должен с точностью до постоянного множителя повторять модуль спектральнойплотность сигнала K (w) = AS(w). С учетом требований к фазовой характеристикецепи K (jw) = AS (w) exp [-jjs (w)] exp (-jwt0), так как S (jw) = S (w)exp [jjs (w)], то K(jw) = AS (jw) exp (-jwt0).
Покажем, что найденное выражение для комплексного коэффициентапередачи является оптимальным в смысле максимума отношения с/п = |y (t0)|/snвых. Длялинейной цепи справедлив принцип суперпозиции, т.е. можно отдельно рассматриватьпрохождение сигнала и шума:
|y (t0) | = | (2p) -1/2/>S(jw) K(jw) exp(-jwt0) dw|,
а snвых = [ (2p) -1/2/>Wn(w) K2(w) dw] 1/2.
Подставим полученные выражения в отношение сигнал/помеха:
|y (t0) |/snвых =
= | (2p) -1/2/>S (jw) K (jw) exp (-jwt0) dw|/ [ (2p) -1/2/>Wn(w) K2(w) dw] 1/2.
В математике существует неравенство Шварца:
|/>F1 (x) F2(x) dx|2 £[/>|F1(x) |2dx] [/>|F2 (x) |2dx],
где F1 (x) и F2 (x)- некоторые комплексные функции. Применимэто неравенство для нашего случая. Тогда отношение сигнал/помеха с/п £ 1//>[ (2p) -1/>S2 (w) dw]1/2. Так как Эs = (2p) -1/>S2 (w) dw,то с/п £ 1//>. При этом значении с/п K(jw) = Kопт (jw). Это неравенство превращается в равенство приусловии, что F2 (x) = F1 (x).Применим это условие к K (jw),получим Kопт (jw)exp (jwt0)= AS (jw), тогда Kопт(jw) = AS (jw) exp (-jwt0).
На выходе сумматора сигнал образуется таким образом: />. Возведение вквадрат является нелинейной операцией, но она выполняется уже после максимизацииотношения сигнал/шум на выходах линейных согласованных фильтров и влияет незначительно.
На выходах квадратурных согласованных фильтров определяются квадратысоставляющих комплексной огибающей (синусной и косинусной) и складываются в сумматоре.Полученный квадрат корреляционного интеграла инвариантен к начальной фазе входногосигнала (определяется квадрат длины вектора в комплексной системе координат). Однаконаличие двух каналов приводит к потерям в отношении сигнал/шум в два раза по мощности(или — 3 дБ), поскольку шум в сумматоре удваивается по дисперсии.
Таким образом, применение синтезированной структуры приводитк независимости от начальной фазы, но приводит к усложнению согласованного фильтра(надо иметь два согласованных фильтра). 8. Двумерный нормальный закон плотности вероятности
Двумерная нормальная плотность вероятности задается формулой
/>
/>,
в которой /> и /> - математические ожидания СВ X и Y;/> и /> - среднеквадратическиеотклонения этих СВ; R — коэффициент корреляции.
Заметим, что кривые равной плотности вероятности имеют вид эллипсов:
/>.
На этом основании эллипсы имеют название эллипсов равных вероятностейили эллипсов рассеивания. В зависимости от знака величины R эллипсы имеют различную форму и ориентацию на плоскости x0y. При этом главные оси эллипсапропорциональны главным среднеквадратическим отклонениям /> и />, которые связаны со среднеквадратическимиотклонениями следующими формулами:
/>;
/>,
где a — угол между однойиз главных осей эллипса и осью 0x. Если главные осиэллипса совпадают с осями координат, то можно утверждать, что СВ X и Y являются некоррелированными, а главные среднеквадратические отклоненияравны среднеквадратическим отклонениям. Если же при этом дисперсии /> и /> одинаковы, то эллипсырассеивания превращаются в окружности.
Нормальное распределение имеет исключительную роль в статистическойрадиотехнике. Почти все шумы радиоприемных устройств подчинены нормальному закону(их мгновенные значения). Универсальность нормального закона объясняется тем, чтокаждая СВ, являющаяся суммой очень большого числа независимых СВ, каждая из которыхоказывает незначительное влияние на сумму, распределена по нормальному закону, причемнезависимо от вида распределения каждого слагаемого (центральная предельная теорематеории вероятности) (рис.1).
/>
Рис.1
Поскольку в выражение для нормальной плотности вероятности входиттолько R, то для нормальных СВ некоррелированностьодновременно означает и их независимость. Нетрудно доказать это утверждение, еслив выражение для нормальной плотности вероятности подставить R = 0. При этом выражение длядвумерной нормальной плотности вероятности преобразуется в произведение одномерныхнормальных плотностей вероятностей.
Библиографический список
1. Математические основы современной радиоэлектроники [Текст] / И.А. Большаков[и др.]. — М.: Сов. радио, 2009. — 208 с.
2. Манжос, В.Н. Теория и техника обработки радиолокационной информации на фонепомех [Текст] / Я.Д. Ширман, В.Н. Манжос. — М.: Радио и связь, 2011. — 416 с.
3. Жовинский, В.Н. Инженерный экспресс-анализ случайных процессов [Текст] /А.Н. Жовинский, В.Н. Жовинский. — М.: Энергия, 2009. — 112 с.
4. Федосов, В.П. Статистическая радиотехника [Текст]: конспект лекций / В.П.Федосов, В.П. Рыжов. — Таганрог: Изд-во ТРТИ, 2008. — 76 с.
5. Гнеденко, Б.Н. Курс теории вероятности [Текст] / Б.Н. Гнеденко. — М.: Физматгиз,2011. — 203 с.