Реферат по предмету "Информатика, программирование"


Обработка информации и принятие решения в системах ближней локации

Курсовая работа
по дисциплине: «Теорияобработки информации в системах ближней локации»
на тему: «Обработкаинформации и принятие решения в системах ближней локации»

Содержание
Задание на курсовое проектирование
Введение
Исходные данные
1. Исследованиевероятностной структуры сигналов
1.1    Построение гистограмм выборочныхплотностей вероятности амплитуд сигналов, как случайных величин
1.2    Изучение законовраспределения случайных величин
1.3    Оценка параметровраспределения случайных величин для четырех законов
1.4       Построениена одном графике теоретического и практического распределения для формулировкигипотезы
1.5       Проверкагипотезы по критерию Колмогорова – Смирнова
1.6    Проверка гипотезы покритерию согласия Пирсона
1.7    Построение корреляционнойфункции для фрагмента сигнала длительностью 2000 отсчетов
2. Формирование обучающихи контрольных множеств данных
2.1 Признаки по оценкеплотности распределения вероятности в пяти интервалах положительной области
3. Исследование признаков
3.1 Оценка параметровраспределения признаков. Определение информативного признака с максимальнымрасстоянием, построение функций плотности распределения вероятностей ивычисление порога принятия решения, формулирование решающего правила
4. Обучение двухслойнойнейронной сети
4.1 Общие сведения онейронных сетях
4.2 Обучение нейроннойсети
Заключение
Список использованныхисточников

Исходныеданные
Задачаобнаружения гусеничной техники, проезжающей на расстоянии 200 м отсейсмоприемника. Сигналы fon и tr_t200 предназначены для обучения и контроля нейронной сети.Сигнал test_t50– для тестирования работы нейронной сети. Признаки: распределение мощности вдесяти равномерных интервалах (по 25 гармоник).
/>
Рисунок 1 – Исходный фоновый сигнал
/>
Рисунок 2 – Исходный сигнал гусеничной техники

Введение
За последние10…20 лет существенно расширилась область использования технических средствохранной сигнализации (ТСОС): они используются для охраны, как военныхобъектов, атомных станций, государственной границы, так и дачных и фермерскиххозяйств. Возрастают и требования к ТСОС по энергопотреблению и габаритнымразмерам, быстродействию и эффективности, кругу решаемых задач.
Ранее восновном решалась задача обнаружения нарушителя с вероятностью 0.9, в настоящеевремя требуется повысить вероятность до 0.95 и более при снижении временинаработки до ложной тревоги с 1000 до 2000 часов (вероятности ложной тревоги).Все чаще ставятся задачи распознавания нарушителя по классам человек-группалюдей, колесная-гусеничная техника с вероятностью 0.8…0.9 и определения места инаправления пересечения охраняемого рубежа или зоны.
Для решенияпоставленных задач недостаточно простых схемотехнических решений и алгоритмов,основанных на амплитудно-временной селекции сигналов.
Анализотечественных и зарубежных ТСОС показал, что основным направлением их развития являетсяразработка более сложных алгоритмов обработки сигналов, основанных наисследовании «тонкой» внутренней структуры сигналов, генерируемых нарушителем,и выявлении наиболее отличительных характеристик (признаков).

1. Исследованиевероятностной структуры сигналов
1.1 Построениегистограммы
Различныезаконы распределения различаются видом графиков F(x) и f(x). Из математическогоанализа известно, что при интегрировании функции сглаживаются, а придифференцировании, их особенности проявляются сильнее. Поэтому функция плотностираспределения вероятности f(x) содержит больше информации, чем функцияраспределения F(x).
Поопределению плотность распределения f(x) – это предел отношениявероятности попадания в малый интервал к ширине этого интервала, когда ширинастремится к нулю. Для выборки выборочная вероятность попадания в некоторыйинтервал – это отношение числа попаданий в интервал nj к общему числу попаданийn. Если ее разделить наширину интервала h, то при малых h мы и получим выборочную плотность распределения:
/>                                               (1)
Здесь мы несможем использовать xjпоодиночке, их придетсягруппировать по участкам. Поэтому вначале весь интервал изменения данных /> нужно разбитьна участки одинаковой длины. Сколько участков взять? Есть несколько подходов копределению числа участков разбиения k. Один из них – этоиспользование формулы Стэрджесса:
/>,                                    (2)
где n – объем выборки, а /> – операция округления доближайшего целого. Другой подход состоит в следующем. С одной стороны, числоучастков разбиения должно быть как можно больше, с другой стороны, в каждый изэтих участков должно попадать как можно больше значений xi. Компромисс между этимитребованиями приводит к тому, что обычно выбирают число участков k для построениягистограммы как ближайшее целое к корню квадратному из n:
/>.                                                   (3)
Послеразбиения /> на k участков подсчитываемчисло попаданий в каждый из них nj.
Из (1)следует, что гистограмма с точностью до множителя nh совпадает с графикомвыборочной плотности распределения />.Разделив ординаты гистограммы на nh, мы получим график />.
Дляпостроения гистограммы в MATLAB имеется функция hist. Она автоматическиразбивает интервал изменения выборки на нужное количество участков,подсчитывает nj и строит график.
Продолжимвыполнение задания «Обработка массива данных». В нижеприведенной области вводапервая строка – это определение числа участков k. Сейчас здесь стоит />. Если вы хотитеиспользовать формулу Стэрджесса, измените эту строку. Определим ширину каждогоинтервала h (идентификатор d в программе). Построим гистограмму распределения(1).
Практическаячасть.
clear all% очистили рабочуюобласть
x=tr_t200; % вводим ИД
x=sort (x(:));% переформатировалистолбец и рассортировали
n=length(x);% длина массива t_tr200
xmin=x(1);% находим минимальноезначение
xmax=x(n);% находим максимальноезначение
Mx=mean(x);% математическоеожидание
f=n-1;% число степенейсвободы
Dx=var(x);% дисперсия
Sx=std(x);% среднеквадратичноеотклонение
Ax=skewness(x);% асимметрия
Ex=kurtosis(x) – 3;% эксцесс
k=round (n^0.5);% число интерваловдля построения гистограммы
d=(xmax-xmin)/k;% ширина каждогоинтервала
del=(xmax-xmin)/20;% добавки влево ивправо
xl=xmin-del;% левая границаинтервала для построения гистограммы
xr=xmax+del;% правая границаинтервала для построения гистограммы
fprintf ('Число интервалов k=%d\n', k)
fprintf ('Ширина интервала h=%14.7f\n', d)
figure% создаем новую фигуру
hist (x, k)% построили гистограмму
set (get(gcf, 'CurrentAxes'),…
'FontName', 'Times New Roman Cyr', 'FontSize', 12)% установка типа иномера шрифта
title ('\bfГистограмма')% заголовок
xlim([xl xr])% границы по оси OX
xlabel ('\itx_{j}')% метка оси x
ylabel ('\itn_{j}')% метка оси y
grid

/>
Рисунок 3 –гистограмма распределения амплитуды сигнала гусеничной техники
/>
Рисунок 4 –гистограмма распределения амплитуды фонового сигнала
 
Вывод: по виду полученныхгистограмм можно сделать предположение о том, что распределение амплитудсигнала подчиняется нормальному закону.
 
1.2Изучение законов распределения случайных величин
Примерыраспределений: нормальное, показательное (экспоненциальное), равномерное,рэлеевское
По видугистограммы подбирается теоретический закон распределения. Для этого смотрим,на какую плотность распределения похожа гистограмма и выбираем соответствующийзакон. В этом задании выбор небольшой. Мы рассматриваем только 4 наиболее частовстречающихся а приложениях законов распределения:
1.Нормальное.
2.Показательное (экспоненциальное).
3.Равномерное.
4.Рэлеевское.
Нарисуем спомощью MATLAB графики соответствующих плотностей распределения. Они показаны нарисунках 5 – 8. Здесь для вычисления f(x) используется функция pdf, которая находитплотность любого из имеющихся в MATLAB видов распределений. Можно использовать и другойвариант: вычислять каждую плотность распределения с помощью своей функции: normpdf, exppdf и т.д.
Плотностьнормального распределения – колоколообразная кривая, симметричная относительнонекоторой вертикальной оси, но она может быть смещена по горизонталиотносительно оси Оу. Значения х могут быть разного знака.Выражение для плотности нормального распределения имеет вид:
/>,                                               (4)
а функцияраспределения:
/>,                       (5)

где Ф(u) – интеграл Лапласа, длякоторого есть таблицы. Если считать функцию нормального распределения вручную,то удобно пользоваться таблицами интеграла Лапласа, которые есть в любомучебнике по теории вероятностей. При использовании MATLAB в этом нетнеобходимости: там есть функции normpdf и normcdf, а также функции pdf и cdf, в которых первыйпараметр (название распределения) должен иметь значение ‘norm’. В выражение для плотностии функции нормального распределения входят 2 параметра: m и s, поэтому нормальноераспределение является двухпараметрическим. По нормальному закону обычнораспределена ошибка наблюдений.
Плотностьпоказательного распределения отлична от нуля только для неотрицательныхзначений х. В нуле она принимает максимальное значение, равное a. С ростом х онаубывает, оставаясь вогнутой и асимптотически приближаясь к 0. Выражение дляплотности показательного распределения:
/>                                        (6)
а для функциираспределения:
/>                                     (7)
Показательнораспределение является однопараметрическим: функция и плотность его зависят отодного параметра a.
Обратитевнимание: в MATLAB параметр показательного распределения – это величина, обратная a в формулах (6 – 7).
Плотностьравномерного распределения отлична от нуля только в заданном интервале [a, b], и принимает в этоминтервале постоянное значение:
/>                                 (8)
Функцияравномерного распределения левее точки а равна нулю, правее b – единице, а в интервале[a, b] изменяется по линейному закону:
/>                                (9)
Равномерноераспределение – двухпараметрическое, т. к. в выражения для F(x) и f(x) входят 2 параметра: аи b. По равномерному закону распределены ошибка округления и фазаслучайных колебаний. В MATLAB плотность и функция равномерного распределениямогут быть посчитаны с помощью функций unifpdf и unifcdf, а также с помощьюфункций pdf и cdf с первым параметром ‘unif’.
Плотностьрэлеевского распределения отлична от нуля только для неотрицательных значений х.От нуля она выпуклая и возрастает дол некоторого максимального значения. Далеес ростом х она убывает, оставаясь выпуклой. Затем становится вогнутой,продолжая убывать, и асимптотически приближается к 0. Выражение для плотностирэлеевского распределения имеет вид:

/>                                  (10)
Функциярэлеевского распределения:
/>                                   (11)
Этораспределение однопараметрическое: оно зависит от одного параметра s. По рэлеевскому законураспределено расстояние от точки попадания в мишень до ее центра. Вычислениеплотности и функции рэлеевского распределения в MATLAB реализовано с помощьюфункций raylpdf,raylcdfили функцийpdf,cdfс превым параметром ‘rayl ‘.
Практическаячасть.
tdistr={'norm', 'exp', 'unif', 'rayl'};% названия
pardistr=[[2 1]; [2,0]; [0 4]; [10]];% параметры
ndistr=length(tdistr);% количествораспределений
xpl=[-1:0.01:5]';% абсциссыдля графиков
for idistr=1:ndistr, % заполняем и строимграфики
ypdf=pdf(tdistr{idistr}, xpl,…
pardistr(idistr, 1), pardistr (idistr, 2));% ординаты
figure%новая фигура
plot(xpl, ypdf);% рисуем
set(get(gcf, 'CurrentAxes'),…
'FontName','Times New Roman Cyr', 'FontSize', 12)
title(['\bfПлотность распределения 'tdistr{idistr}])
end;
/>
Рисунок 5 –плотность распределения амплитуды сигнала по нормальному закону
/>
Рисунок 6 –плотность распределения амплитуды сигнала по экспоненциальному закону
/>
Рисунок 7 –равномерная плотность распределения амплитуды сигнала

/>
Рисунок 8 –плотность распределения амплитуды сигнала по Релеевскому закону
На практикемогут встретиться и другие виды распределений (b, c2, логнормальное, Вейбуллаи т.д.). Многие из них реализованы в MATLAB, но иногда приходится писать свои функции.
Графикинекоторых плотностей распределения похожи между собой, поэтому иногда видгистограммы позволяет выбрать сразу несколько законов. Если есть какие-либотеоретические соображения предпочесть одно распределение другому, можно ихиспользовать. Если нет – нужно проверить все подходящие законы, а затем выбратьтот, для которого критерии согласия дают лучшие результаты.
 
1.3 Оценкапараметров распределения случайных величин для четырех законов
В выраженияхдля плотности и функции нормального распределения (4 – 5) параметры m и s являются математическиможиданием и среднеквадратичным отклонением. Поэтому, если мы остановились нанормальном распределении, то берем их равными, соответственно, выборочнымматематическому ожиданию и среднеквадратичному отклонению:

/>.                                         (12)
Математическоеожидание показательного распределения есть величина, обратная его параметру a. Поэтому, если мывыбрали показательное распределение, параметр a находим:
/> (13)
Из выраженийдля mx и sx равномерного закона распределениянаходим его параметры a и b:
/>; />. (14)
Параметр s рэлеевскогораспределения также находится из выражения для mx
/> (15)
В системе MATLAB вычисление параметровтеоретического распределения с помощью ПМП реализовано в функциях fitили mle. Подбор по методу моментов не реализован. Найдем параметрытеоретического распределения по ПМП и методу моментов.
Практическаячасть.
s={'нормальноераспределение'; 'показательное распределение';…
'равномерноераспределение'; 'Рэлеевское распределение'};
disp ('Параметры по ПМП:')
[mx, sx]=normfit(x);% параметры нормальногораспределения
lam=1/expfit(x);% параметрпоказательного распределения
[a, b]=unifit(x);% параметрыравномерного распределения
sig=raylfit(x);% параметр Рэлеевскогораспределения
fprintf(['% s: m=%12.7f; sigma=%12.7f\n'], s{1}, mx, sx)
fprintf(' % s: alpha=%12.7f\n', s{2}, lam)
fprintf(' % s: a=%12.7f; b=%12.7f\n', s{3}, a, b)
fprintf(' % s: sigma=%12.7f\n', s{4}, sig)
Длясигналагусеничнойтехники:
Параметры поПМП:
нормальноераспределение: m= 0.0060038; sigma= 0.0203706
показательноераспределение: alpha= 166.5608494
равномерноераспределение: a= -0.0962308; b= 0.0942564
Рэлеевскоераспределение: sigma= 0.0150166
Дляфонового сигнала:
Параметры поПМП:
нормальноераспределение: m= 0.0188599; sigma= 0.0005663
показательноераспределение: alpha= 53.0224920
равномерноераспределение: a= 0.0106122; b= 0.0210241
Рэлеевскоераспределение: sigma= 0.0133420
disp ('Параметры по методумоментов:')
mx=Mx;
sx=Sx;% параметры нормальногораспределения
lam=abs (1/Mx);% параметрпоказательного распределения
a=Mx-Sx*3^0.5;
b=Mx+Sx*3^0.5;% параметрыравномерного распределения
sig=abs(Mx)*(2/pi)^0.5;% параметрРэлеевского распределения
fprintf(['% s: m=%12.7f; sigma=%12.7f\n'], s{1}, mx, sx)
fprintf(' % s: alpha=%12.7f\n', s{2}, lam)
fprintf(' % s: a=%12.7f; b=%12.7f\n', s{3}, a, b)
fprintf(' % s: sigma=%12.7f\n', s{4}, sig)
Длясигналагусеничнойтехники:
Параметры пометоду моментов:
нормальноераспределение: m= 0.0060038; sigma= 0.0203706
показательноераспределение: alpha= 166.5608494
равномерноераспределение: a= -0.0292791; b= 0.0412867
Рэлеевскоераспределение: sigma= 0.0047903
Дляфонового сигнала:
Параметры пометоду моментов:
нормальноераспределение: m= 0.0188599; sigma= 0.0005663
показательноераспределение: alpha= 53.0224920
равномерноераспределение: a= 0.0178790; b= 0.0198409
Рэлеевскоераспределение: sigma= 0.0150480
Вывод: из результатов,полученных двумя методами видно, что оценки плотностей распределениявероятностей для равномерного и рэлеевского законов по первому методуотличаются от плотностей распределения вероятностей по второму методу.
Оценкипоказательных и нормальных законов плотностей распределения вероятностей пообоим методам практически совпадают.
 
1.4Построение на одном графике теоретического и практического распределения для формулировкигипотезы
Построим наодном графике теоретическую и эмпирическую плотности распределения вероятности.Эмпирическая плотность распределения – это гистограмма, у которой масштаб пооси ординат изменен таким образом, чтобы площадь под кривой стала равнаединице. Для этого все значения в интервалах необходимо разделить на nh, где n – объем выборки, h – ширина интервала припостроении гистограммы. Теоретическую плотность распределения вероятностистроим по одному из выражений (4), (6), (8), (10), параметры для них ужевычислены. Эмпирическую плотность распределения нарисуем красной линией, апредполагаемую теоретическую – линией одного из цветов: синего, зеленого,сиреневого или черного.
Практическаячасть.
[nj, xm]=hist (x, k);% число попаданий исередины интервалов
delta=xm(2) – xm(1);% ширина интервала
clear xfv fv xft ft% очистили массивы для f(x)
xfv=[xm-delta/2; xm+delta/2];% абсциссы дляэмпирической f(x)
xfv=reshape (xfv, prod (size(xfv)), 1);% преобразовали встолбец
xfv=[xl; xfv(1); xfv; xfv(end); xr];% добавили крайние
fv=nj/(n*delta);% значения эмпирическойf(x) в виде 1 строки
fv=[fv; fv];% 2 строки
fv=[0; 0; reshape (fv, prod (size(fv)), 1); 0; 0];% +крайние, 1 столбец
xft=linspace (xl, xr, 1000)';% абсциссы длятеоретической f(x)
ft=[normpdf (xft, mx, sx), exppdf (xft, 1/lam),…
unifpdf (xft, a, b), raylpdf (xft, sig)];
col='bgmk';% цвета для построенияграфиков
figure
plot(xfv, fv, '-r', xft, ft(:, 1), col(1), xft, ft(:, 2), col(2),…
xft,ft(:, 3), col(3), xft, ft(:, 4), col(4)) % рисуем
set(get(gcf, 'CurrentAxes'),…
'FontName','Times New Roman Cyr', 'FontSize', 12)
title ('\bfПлотности распределения')
xlim([xl xr]), ylim([0 1.4*max(fv)])% границы рисунка поосям
xlabel ('\itx')% метка оси x
ylabel ('\itf\rm (\itx\rm)')% метка оси y
grid

/>
Рис. 9 –График плотности распределения вероятности сигнала гусеничной техники и графикинормального, рэлеевского, показательного и равномерного законов плотностейраспределения вероятности
/>
Рис. 10– График плотности распределения вероятности фонового сигнала и графикинормального, рэлеевского, показательного и равномерного законов плотностейраспределения вероятности
 
Вывод: из рисунка 9 видно, чтонаиболее подходящим теоретическим распределением для первой эмпирическойгистограммы является нормальное.
Реальныйзакон распределения амплитуд фонового сигнала также подчиняется нормальномузакону.

1.5Проверка гипотезы по критерию Колмогорова-Смирнова
Мы подобраливид теоретического распределения и его параметры. Следующий этап – это проверкаправильности подбора. Необходимо выяснить: насколько хорошо теоретическоераспределение согласуется с данными. С этой целью используются критериисогласия Колмогорова-Смирнова или Пирсона., во втором – f(x) и f*(x).
Критерийсогласия Колмогорова. В этом случае сравниваются теоретическая F(x) и выборочная F*(x) функции распределения.Сравниваемым параметром является максимальная по модулю разность между двумяфункциями
/>. (16)
С точкизрения выборочного метода F*(x) является случайной функцией, так как от выборкик выборке ее вид меняется, поэтому величина D является случайной.Согласно теореме Гливенко-Кантелли с ростом объема выборки эта величинасходится к нулю. Колмогоров А.Н. выяснил, как именно D сходится к нулю. Онрассмотрел случайную величину
/> (17)
и нашел еезакон распределения. Как оказалось, при достаточно больших n он вообще не зависит отзакона распределения генеральной совокупности X. Причем функцияраспределения случайной величины L имеет вид

/>. (18)
Если опытныеданные x действительно взяты из генеральной совокупности с функциейраспределения F(x), то вычисленная по выражению (18) реализация l случайной величины L на уровне значимости q должна лежать вквантильных границах распределения Колмогорова (18). При этом, если l малое (выходит за «левый»квантиль), то нулевая гипотеза принимается: теоретическое распределениесогласуется с опытными данными. В общем случае нулевая гипотеза принимается,если выполняется условие
l £ l1-q. (19)
Данныйкритерий называется еще критерием Колмогорова-Смирнова.
Такимобразом, для применения критерия согласия Колмогорова-Смирнова, мы должны найтимаксимальную по модулю разность между выборочной и теоретической функциямираспределения D по выражению (16), вычислить по ней l и проверить условие (19).
Практическаячасть.
param=[[mx sx]; [lam 0]; [a b]; [sig 0]];% параметрыраспределений
qq=[];% критические уровнизначимости
for idistr=1:ndistr, % критерий Колмогорова
[hkolm, pkolm, kskolm, cvkolm]=…
kstest (x, [x cdf (tdistr{idistr}, x,…
param (idistr, 1), param (idistr, 2))], 0. 1,0);
qq=[qq pkolm];% критические уровнизначимости
end
[maxqq, bdistr]=max(qq);% выбрали лучшеераспределение
fprintf(['Лучше всего подходит %s;\nкритический уровень '…
'значимостидля него =%8.5f\n'], s{bdistr}, maxqq);
figure
cdfplot(x);% эмпирическая функцияраспределения
xpl=linspace (xl, xr, 500);% для графика F(x)
ypl=cdf(tdistr{bdistr}, xpl, param (bdistr, 1), param (bdistr, 2));
hold on% для рисования на этомже графике
plot (xpl, ypl, 'r');% дорисовали F(x)
holdoff
set(get(gcf, 'CurrentAxes'),…
'FontName','Times New Roman Cyr', 'FontSize', 12)
title(['\bfПодобрано' s{bdistr}])
xlabel('\itx')% метка оси x
ylabel('\itf\rm (\itx\rm)')% метка оси y
Результат:
Лучше всегоподходит нормальное распределение;
критическийуровень значимости для него = 0.31369
/>
Рис. 11– График эмпирической функции распределения для сигнала гусеничной техники

/>
Рис. 12– График эмпирической функции распределения для фонового сигнала
Найденныйкритический уровень значимости – это то значение q, при котором неравенство(19) обращается в равенство.
Вывод:По полученным результатамможно сделать вывод, что по данному критерию распределение подобранно верно.
 
1.6Проверка гипотезы по критерию согласия Пирсона
По критериюПирсона сравниваются теоретическая и эмпирическая функции плотностираспределения вероятности, а точнее – частота попадания случайной величины винтервал. Интервалы могут быть любыми, равными и неравными, но удобноиспользовать те интервалы, на которых построена гистограмма. Эмпирические числапопадания n (из гистограммы) сравнивается с теоретическим npj, где pj – вероятность попаданияслучайной величины X в j-ый интервал:
/>, (20)

aj и bj – границы j-го интервала. КарлПирсон показал, что, если все npj ³ 5, то суммарная квадратическая относительная разность междутеоретическим и практическим числом попаданий в интервал равна
/> (21)
имеетприближенно c2 распределение Пирсона с k– m степенями свободы, где m – число параметров,оцениваемых по выборке, плюс 1. Так как параметров два, то m = 3. Выражение (21)представляет собой статистику Пирсона.
Теоретическоераспределение можно считать подобранным верно, если выполняется условие
/>. (22)
Построимтаблицу результатов, в которую занесем: номера интервалов (1-й столбец),границы интервалов aj и bj (2-й и 3-й столбцы),вероятность попадания в интервал pj (4-й столбец),теоретическое число попаданий и практическое число попаданий npj (6-й столбец). Границыинтервалов и практическое число попаданий взяты из гистограммы, теоретическаявероятность попадания в j-й интервал подсчитывается по выражению (20).
Практическаячасть.
clear Tabl% очистили таблицурезультатов
Tabl(:, 1)=[1:k]';% номера интервалов
Tabl(:, 2)=xm'-delta/2;% левые границыинтервалов
Tabl(:, 3)=xm'+delta/2;% правые границыинтервалов
Tabl (1,2)=-inf;% теоретическое начало 1-гоинтервала
Tabl (k, 3)=inf;% теоретический конецпоследнего интервала
Tabl(:, 4)=nj';% опытные числапопаданий
bor=[Tabl(:, 2); Tabl (end, 3)];% все границыинтервалов
pro=cdf(tdistr{bdistr}, bor, param (bdistr, 1), param (bdistr, 2));
Tabl(:,5)=pro (2:end) – pro (1:end-1);% вероятности попаданиz pj
Tabl(:,6)=n*Tabl(:, 5);% теоретическое число попаданий npj
disp ('Сводная таблицарезультатов')
fprintf (' j aj bj')
fprintf (' nj pj npj\n')
fprintf(' % 2.0f % 12.5f % 12.5f % 6.0f % 12.5f % 12.5f\n', Tabl')
Длясигнала гусеничной техники:
Своднаятаблица результатов
j aj bj nj pjnpj
1 – Inf -0.095442 0.00000 0.01837
2 -0.09544 -0.094642 0.00000 0.00408
3 -0.09464 -0.093850 0.00000 0.00495
4 -0.09385 -0.093061 0.00000 0.00599
5 -0.09306 -0.092261 0.00000 0.00724
6 -0.09226 -0.091470 0.00000 0.00873
7 -0.09147 -0.090670 0.00000 0.01052
8 -0.09067 -0.089884 0.00000 0.01266
9 -0.08988 -0.089090 0.00000 0.01520
10 -0.08909 -0.088290 0.00000 0.01824
11 -0.08829 -0.087502 0.00000 0.02184
12 -0.08750 -0.086712 0.00000 0.02612
13 -0.08671 -0.085910 0.00000 0.03118
14 -0.08591 -0.085123 0.00000 0.03718
15 -0.08512 -0.084331 0.00000 0.04425
Дляфонового сигнала:
Своднаятаблица результатов
j aj bj nj pj npj
1 – Inf 0.01067 1 0.00000 0.00000
2 0.01067 0.010740 0.00000 0.00000
3 0.01074 0.010800 0.00000 0.00000
4 0.01080 0.010860 0.00000 0.00000
5 0.01086 0.010920 0.00000 0.00000
6 0.01092 0.010980 0.00000 0.00000
7 0.01098 0.011040 0.00000 0.00000
8 0.01104 0.011110 0.00000 0.00000
9 0.01111 0.011170 0.00000 0.00000
10 0.01117 0.011230 0.00000 0.00000
11 0.01123 0.011290 0.00000 0.00000
12 0.01129 0.011350 0.00000 0.00000
13 0.01135 0.011410 0.00000 0.00000
14 0.01141 0.011470 0.00000 0.00000
15 0.01147 0.011540 0.00000 0.00000
Еслираспределение подобрано, верно, то числа из 4-го и 6-го столбцов не должнысильно отличаться.
Вывод: Для сигнала гусеничнойтехники числа из 4-го и 6-го столбцов значительно отличаются, значит,распределение подобрано неверно. А для фонового сигнала эти числа практическисовпадают.
Проверимвыполнение условия npj ³ 5 и объединим теинтервалы, в которыхnpj
Практическаячасть.
qz=0.3;%выбрали уровень значимости
ResTabl=Tabl (1,1:6);%взяли первую строку
for k1=2:k, %берем остальные строки таблицы
if ResTabl (end,6)
ResTabl (end,3)=Tabl (k1,3);% новая правая граница интервала
ResTabl(end, 4:6)=ResTabl (end, 4:6)+Tabl (k1,4:6);% суммируем
else%предыдущее npj>=5 – будем дописывать строку
ResTabl=[ResTabl;Tabl (k1,1:6)];% дописываем строку
end
end
ifResTabl (end, 6)
ResTabl(end – 1,3)=ResTabl (end, 3);% новая правая граница
ResTabl(end – 1,4:6)=ResTabl (end – 1,4:6)+ResTabl (end, 4:6);
ResTabl=ResTabl(1:end-1,:);% отбросили последнюю строку
end
kn=size (ResTabl,1);% число объединенных интервалов
ResTabl(:, 1)=[1:kn]';%новые номера интервалов
ResTabl(:, 7)=(ResTabl(:, 4) – ResTabl(:, 6)).^2./ResTabl(:, 6);
disp ('Сгруппированнаясводная таблица результатов')
fprintf (' j aj bj')
fprintf (' nj pj npj ')
fprintf([' (nj-npj)^2/npj\n'])
fprintf(' % 2.0f % 12.5f % 12.5f % 6.0f % 12.5f % 12.5f % 12.5f\n', ResTabl')
hi2=sum (ResTabl(:,7));% сумма элементов последнего столбца
fprintf(['СтатистикаПирсона chi2=%10.5f\n'], hi2)
m=[3,2,3,2];%число ограничений
fprintf ('Задаемуровень значимости q=%5.4f\n', qz)
chi2qz=chi2inv(1-qz, kn-m(bdistr));% квантиль
fprintf(['Квантильchi2-распределения Пирсона '…
'chi2(1-q)=%10.5f\n'], chi2qz)
if hi2
disp ('Распределениеподобрано верно, т. к. chi2
else
disp ('Распределениеподобрано неверно, т. к. chi2>chi2 (1-q)')
end
Длясигнала гусеничной техники:
Сгруппированнаясводная таблица результатов
j aj bj nj pjnpj (nj-npj)^2/npj
1 – Inf -0.0700458 0.00009 5.46033 505.53988
2 -0.07004 -0.0660732 0.00011 6.16617 108.23348
3 -0.06607 -0.0636917 0.00011 6.35867 17.80845
4 -0.06369 -0.0621016 0.00010 5.89961 17.29233
5 -0.06210 -0.0605116 0.00013 7.65444 9.09908
6 -0.06051 -0.0589316 0.00017 9.87115 3.80530
7 -0.05893 -0.058139 0.00010 5.93889 1.57781
8 -0.05813 -0.0573416 0.00012 6.71391 12.84370
9 -0.05734 -0.0565512 0.00013 7.57856 2.57953
10 -0.05655 -0.0557517 0.00015 8.54160 8.37603
11 -0.05575 -0.0549615 0.00017 9.61240 3.01967
12 -0.05496 -0.0541617 0.00019 10.80104 3.55773
13 -0.05416 -0.0533713 0.00021 12.11825 0.06416
14 -0.05337 -0.0525826 0.00024 13.57548 11.37115
15 -0.05258 -0.0517820 0.00026 15.18487 1.52688
СтатистикаПирсона chi2=2613.15423
Задаемуровень значимости q=0.3000
Квантиль chi2-распределения Пирсона chi2 (1-q)= 182.25040
Распределениеподобрано неверно, т. к. chi2>chi2 (1-q)
Вывод: По критерию Пирсонараспределение подобрано неверно, т. к. реальное значение статистики χ2р=2613.15423намного превышает критическое значение χ2т,f=182.25040, следовательно,гипотеза о нормальном законе распределения амплитуд сигнала не подтверждаетсяна уровне значимости 0.05.
Дляфонового сигнала:
Сгруппированнаясводная таблица результатов
j aj bj nj pj npj (nj-npj)^2/npj
1 – Inf 0.01690 11 0.00026 7.515151.61596
2 0.01690 0.0170213 0.00031 8.99732 1.78070
3 0.01702 0.0170814 0.00026 7.55999 5.48594
4 0.01708 0.0171415 0.00037 10.63561 1.79095
5 0.01714 0.0172013 0.00052 14.78664 0.21588
6 0.01720 0.0172724 0.00071 20.31617 0.66797
7 0.01727 0.0173333 0.00097 27.58544 1.06279
8 0.01733 0.0173935 0.00130 37.01551 0.10975
9 0.01739 0.0174554 0.00172 49.08550 0.49205
10 0.01745 0.0175158 0.00225 64.32627 0.62217
11 0.01751 0.0175779 0.00291 83.30848 0.22282
12 0.01757 0.01764102 0.00373 106.62418 0.20055
13 0.01764 0.01770137 0.00472 134.86147 0.03391
14 0.01770 0.01776167 0.00590 168.57212 0.01466
15 0.01776 0.01782185 0.00729 208.23287 2.59213
СтатистикаПирсона chi2= 57.37478
Задаемуровень значимости q=0.3000
Квантиль chi2-распределения Пирсона chi2 (1-q)= 66.27446
Распределениеподобрано, верно, т. к. chi2
Вывод: Для фонового сигнала покритерию Пирсона распределение подобрано верно, т. к. реальное значениестатистики χ2р=609411.53699 не превышает критическоезначение χ2т,f=520.15366, следовательно,гипотеза о нормальном законе распределения амплитуд сигнала подтверждается.
1.7Построение корреляционной функции для фрагмента сигнала длительностью 2000отсчетов
 
Дляпостроения корреляционной функции двух сигналов, выберем фрагменты сигналов:
Практическаячасть
%Началофрагмента задается величиной N1
N1=25001;
% конецфрагмента задается величиной N2
N2=26000;
x=tr_t200 (N1:N2); %вырезали фрагментсигнала
r=xcorr (x, x); %Вычислениекорреляционной функции
/>
Рисунок 13 – Графикисходного сигнала гусеничной техники
Для сигналагусеничной техники выбираем наиболее информативный участок от 54000 до 55000.
/>
Рисунок 14 – Графикисходного фонового сигнала

Для фонового сигналавыбираем наиболее информативный участок то 45000 до 46000.
Для сигналагусеничной техники:
h1=tr_t200 (54000:55000);%вырезали фрагмент
k=1000;
KF=xcorr (h1, h1, k);% КФ
k1=-k:k; plot (k1, KF);%построили КФ
/>
Рисунок 15 –График корреляционной функции сигнала гусеничной техники
 
Вывод: График имеетквазипериодический характер. Повтор явных всплесков колебаний через каждые 250÷300отсчетов. По корреляционной функции также можно сказать, что сигнал имеетколебательный случайный характер. Так же можно сказать, что функция нестационарна, так как дисперсия ее не постоянна. Период колебания корреляционнойфункции сигнала гусеничной техники составляет примерно 290 отсчетов (0.58 с).
Для фоновогосигнала:
h2=fon (15000:16000);% вырезалифрагмент
k=1000;
KF=xcorr (h2, h2, k);% КФ
k1=-k:k; plot (k1, KF);%построили КФ

/>
Рисунок 16 –График корреляционной функции фонового сигнала
Вывод:по корреляционной функциидля фонового сигнала можно сказать, что сигнал имеет колебательный случайныйхарактер. Так же можно сказать, что функция не стационарна, так как дисперсияее не постоянна. Период колебания корреляционной функции фонового сигналасоставляет приблизительно 190 отсчетов.
 

2.Формирование обучающих и контрольных множеств данных
 
2.1 Признакипо оценке спектра мощности сигнала в восьми интервалах частот
Теоретическийраздел
Приобнаружении и распознавании объектов по сейсмическим сигналам возникает задачавыбора признаков.
Признакидолжны удовлетворять двум основным требованиям:
1Устойчивость. Наиболее устойчивыми считаются признаки, отвечающие нормальномузакону распределения (желательно, чтобы значения признаков не выходили запределы поля допуска);
2Сепарабельность. Чем больше расстояние между центрами классов и меньшедисперсия в классе, тем выше показатели качества системы обнаружения иликлассификации.
В даннойработе признаками являются: распределение мощности в десяти равномерныхинтервалах (по 25 гармоник).
Практическаячасть
x1=tr_t200-mean (tr_t200);%Введениецентрированного сигнала одного
человека.
x2=fon-mean(fon);%Введениецентрированного сигнала
группы людей.
Признакивычисляются с использованием подгружаемого файла MATRPRIZP:
function[P, Ps]=f (x, fs, N1, N2)
% Программавычисления матрицы признаков относительной мощности
% сигнала в10-ти поддиапазонах частот
% Обращение кпроцедуре: P=MATRPRIZP (x, fs, N1, N2); или [P, Ps]=MATRPRIZP (x, fs, N1, N2);
% x – исходный дискретныйсигнал
% P – матрица признаков
% Ps – матрица сглаженныхпризнаков
% Pk – спектр мощностьсигнала в текущем окне
% N1 – длинна нарезанныхсигналов в отсчетах
% N2 – сдвиг в отсчетахмежду соседними сигналами
% M – матрица сигналовразмерности N1*N2
% Nc – число строк матрицысигналов
M=matrsig (x, N1, N2);
Nc=length(M(:, 1));
fori=1: Nc Pk(:, i)=SM (M(i,:)', N1, fs); end;
Pk=Pk';
fori=1: Nc
w=sum(Pk(i,:));
P (i,1)=sum (Pk(i, 1:51))/w; P (i, 2)=sum (Pk(i, 52:103))/w; P (i, 3)=sum (Pk(i, 104:155))/w;P (i, 4)=sum (Pk(i, 156:207))/w;…
P (i,5)=sum (Pk(i, 208:259))/w; P (i, 6)=sum (Pk(i, 260:311))/w; P (i, 7)=sum (Pk(i,312:363))/w; P (i, 8)=sum (Pk(i, 364:415))/w; P (i, 9)=sum (Pk(i, 416:467))/w; P(i, 10)=sum (Pk(i, 468:512))/w;
end;
Пропускаемсигналы через формирование матрицы признаков:
x=tr_t200;
N1=1024;
N2=512;
fs=500;
Mt=MATRPRIZP(x, fs, N1, N2);
x=fon;
N1=1024;
N2=512;
fs=500;
Mf=MATRPRIZP(x, fs, N1, N2);
Получимграфические представления матриц признаков:
/>
Рисунок 17 – Графическоепредставление матрицы признаков сигнала гусеничной техники
/>
Рисунок18 – Графическоепредставление матрицы признаков фонового сигнала


3 Исследование признаков
 
Практическаячасть
Для обучающейматрицы произвести исследование признаков по следующей программе: 1) Оценитьпараметры распределения признаков; 2) По каждому признаку обучающей матрицывычислить расстояние. Для данного признака сформулировать решающее правилозадачи обнаружения.
 
3.1 Оценкапараметров распределения признаков. Определение информативного признака смаксимальным расстоянием, построение функций плотности распределениявероятностей и вычисление порога принятия решения, формулирование решающегоправила
Загружаемсигнал в рабочее пространство:
h1=fon-mean(fon);
h2=tr_t200-mean(tr_t200);
N1=1024;
N2=512;
fs=500;
Пропускаемсигнал через решетку фильтров Батерворда:
[M,Mf]=MATRPRIZP (h1,500, N1, N2);
[M, Mt]=MATRPRIZP (h2,500, N1, N2);
Находимматематическое ожидание и дисперсию для 2-х сигналов:
VMf=mean(Mf);
VMf=
0.74240.0651 0.0439 0.0353 0.0353 0.0289 0.0200 0.0135 0.0093 0.0054
VMs=mean(Mt);
VMs=
0.95630.0424 0.0006 0.0002 0.0001 0.0001 0.0001 0.0001 0.0001 0.0001
VSf=std(Mf);
VSf=
0.06760.0144 0.0119 0.0103 0.0131 0.0107 0.0056 0.0030 0.0018 0.0016
VSs=std(Mt);
VSs=
0.02340.0232 0.0003 0.0001 0.0001 0.0001 0.0001 0.0000 0.0000 0.0000
npr=10;
fori=1:npr
r(i)=abs(VMf(i) – VMs(i))/(VSf(i)+VSs(i));
end;
[max_r,ind]=max(r);
Расстояниемежду признаками r=
2.3638 0.678073.5322 3.2243 2.3307 2.9455 4.0058 4.756 4.3383 3.2031
Максимальноерасстояние: max_r=4.756;
Получилинаиболее информативный признак под номером 8. Следовательно, нормированноезначение мощности в диапазоне 364 – 415 Гц.
ind=8;
x1=Mt(:,ind);
x1=sort(x1);
n1=length(x1);
xmin1=x1(1);
xmax1=x1(n1);
Mx1=mean(x1);
Sx1=std(x1);
xl1=Mx1–3*Sx1;
xr1=Mx1+3*Sx1;
xft1=linspace(xl1, xr1,1000);
ft1=[normpdf(xft1, Mx1, Sx1)];
k1=round(n1^0.5);
d1=(xmax1-xmin1)/k1;
x2=Mf(:,ind);
x2=sort(x2);
n2=length(x2);
xmin2=x2(1);
xmax2=x2(n2);
Mx2=mean(x2);
Sx2=std(x2);
xl2=Mx2–3*Sx2;
xr2=Mx2+3*Sx2;
xft2=linspace(xl2, xr2,1000);
ft2=[normpdf(xft2, Mx2, Sx2)];
k2=round(n2^0.5);
d2=(xmax2-xmin2)/k2;
plot(xft1, ft1.*d1,'b', xft2, ft2.*d2,'r');
chi=(2*Sx1*Sx2*log(Sx2/Sx1))+Mx1^2-Mx2^2;
Zn=2*(Mx1-Mx2);
h=chi/Zn
Получилипорог принятия решения:
h = 0.0063
Построимграфик плотности распределения вероятности:
/>
Рисунок 19 – Совмещенныеграфики плотностей распределения вероятностей сигналов гусеничной техники ифона

Решающееправило:если значения признака будет меньше порога h, то принимаем решение,что это полезный сигнал, если же значения признака больше порога h это будетсоответствовать отсутствию сигнала (фону).
Вывод: в данной части курсовойработы были получены матрицы признаков сигнала гусеничной техники и фоновогосигналов. Были найдены значение и номер наиболее информативного признака. Но поэтому признаку нельзя построить систему классификации, т. к. будет слишкомвелика ошибка. Поэтому систему классификации целесообразно строить понескольким признакам.
Также былополучено значение порога принятия решения для системы классификации исформулировано решающее правило.
 

4.Обучение нейронной сети.
 
4.1 Общиесведения о нейронных сетях
ИскусственныеНС представляет собой модели, в основе которых лежат современные представленияо строении мозга человека и происходящих в нем процессах обработки информации.ИНС уже нашли широкое применение в задачах: сжатия информации, оптимизации,распознавание образов, построение экспертных систем, обработки сигналов иизображений и т.д.
Связьмежду биологическим и искусственным нейронами
 
/>
Рисунок 20 –Структура биологического нейрона
Нервнаясистема человека состоит из огромного количества связанных между собойнейронов, порядка 1011; количество связей исчисляется числом 1015.
Представимсхематично пару биологических нейронов (рисунок 20).Нейрон имеет нескольковходных отростков – дендриты, и один выходной – аксон. Дендриты принимаютинформацию от других нейронов, аксон – передает. Область соединения аксона сдендритом (область контакта) называется синапсом. Сигналы, принятые синапсами,подводятся к телу нейрона, где они суммируются. При этом, одна часть входныхсигналов являются возбуждающими, а другая – тормозящими.
Когда входноевоздействие превысит некоторый порог, нейрон переходит в активное состояние ипосылает по аксону сигнал другим нейронам.
/>Искусственный нейрон – это математическаямодель биологического нейрона (Рисунок 21). Обозначим входной сигнал через х,а множество входных сигналов через вектор X = {х1, х2, …,хN}. Выходной сигнал нейрона будем обозначать через y.
Изобразимфункциональную схему нейрона.
/>
Рисунок 21 –Искусственный нейрон
Дляобозначения возбуждающего или тормозящего воздействия входа, введемкоэффициенты w1, w1, …, wN – на каждый вход, то есть вектор
W = {w1, w1, …, wN}, w0– величина порога.Взвешенные на векторе W входные воздействия Х перемножаются ссоответствующим коэффициентом w, суммируются и формируется сигнал g:
 
/>
Выходнойсигнал является некоторой функцией от g

/>,
где F – функция активации. Онаможет быть различного вида:
1)        ступенчатойпороговой
2)        
/>    /> или
/> />
В общемслучае:
/>
2) линейной,которая равносильна отсутствию порогового элемента вообще
F(g) = g />

3)кусочно-линейной, получаемая из линейной путем ограничения диапазона еёизменения в пределах />, то есть
/> />       
4)сигмоидальной       
/> />
5)многопороговой
/>
6)гиперболический тангенс
F(g) = tanh(g) />

Чаще всеговходные значения преобразуются к диапазону XÎ [0, 1]. При wi= 1 (i = 1, 2,…, N) нейрон являетсямажоритарным элементом. Порог в этом случае принимает значение w0= N/2.
Еще одинвариант условного изображения искусственного нейрона приведен на рисунке 22
/>
Рисунок 22 –Условное обозначение искусственного нейрона
Сгеометрической точки зрения, нейрон при линейной функции активации описываетуравнение линии, если на входе одно значение x1
 
/>
илиплоскости, когда на входе вектор значений Х
 
/>
Структура(архитектура, топология) нейронных сетей
Существуетмножество способов организации ИНС, в зависимости от: числа слоев, формы инаправления связей.
Изобразимпример организации нейронных сетей (рисунок 23).

/> />
Однослойнаяструктура Двухслойная структура с обратными связями с обратными связями
/> />
Двухслойнаяструктура Трехслойная структура с прямыми связями с прямыми связями
Рисунок 23 –Примеры структур нейронных сетей
На рисунке 24изображена трехслойная НС с прямыми связями. Слой нейронов, непосредственнопринимающий информацию из внешней среды, называется входным слоем, а слой,передающий информацию во внешнюю среду – выходным. Любой слой, лежащиймежду ними и не имеющий контакта с внешней средой, называется промежуточным(скрытным) слоем. Слоев может быть и больше. В многослойных сетях, как правило,нейроны одного слоя имеют функцию активации одного типа.

/>
Рисунок 24 –Трехслойная нейронная сеть
Приконструировании сети в качестве исходных данных выступают:
– размерностьвектора входного сигнала, то есть количество входов;
– размерностьвектора выходного сигнала. Число нейронов в выходном слое, как правило, равночислу классов;
–формулировка решаемой задачи;
–    точность решения задачи.
Например, прирешении задачи обнаружения полезного сигнала НС может иметь один или два выхода.
Создание илисинтез НС – это задача, которая в настоящее время теоретически не решена. Онаносит частный характер.
Обучениенейронных сетей
Одним изсамых замечательных свойств нейронных сетей является их способность обучаться.Несмотря на то, что процесс обучения НС отличается от обучения человека впривычном нам смысле, в конце такого обучения достигаются похожие результаты.Цель обучения НС заключается в её настройке на заданное поведение.
Наиболее распространеннымподходом в обучении нейронных сетей является коннекционизм. Он предусматриваетобучение сети путем настройки значений весовых коэффициентов wij, соответствующих различнымсвязям между нейронами. Матрица W весовых коэффициентов wijсети называетсясинаптической картой. Здесь индекс i – это порядковый номер нейрона, из которогоисходит связь, то есть предыдущего слоя, а j – номер нейронапоследующего слоя.
Существуетдва вида обучения НС: обучение с учителем и обучение без учителя.
Обучение сучителем заключается в предъявлении сети последовательности обучаемых пар(примеров) (Хi, Hi), i = 1, 2, …, m образов, котораяназывается обучающей последовательностью. При этом для каждого входного образа Хiвычисляется реакция сети Yiи сравнивается с соответствующимцелевым образом Hi. Полученное рассогласование используетсяалгоритмом обучения для корректировки синаптической карты таким образом, чтобыуменьшить ошибку рассогласования. Такая адаптация производится путемциклического предъявления обучающей выборки до тех пор, пока ошибкарассогласования не достигнет достаточно низкого уровня.
Хотя процессобучения с учителем понятен и широко используется во многих приложенияхнейронных сетей, он всё же не полностью соответствует реальным процессам,происходящим в мозге человека в процессе обучения. При обучении наш мозг неиспользует какие-либо образы, а сам осуществляет обобщение поступающей извнеинформации.
В случаеобучения без учителя обучающая последовательность состоит лишь из входныхобразов Хi. Алгоритм обучения настраивает веса так, чтобы близким входнымвекторам соответствовали одинаковые выходные векторы, то есть фактическиосуществляет разбиение пространства входных образов на классы. При этом дообучения невозможно предсказать, какие именно выходные образы будутсоответствовать классам входных образов. Установить такое соответствие и датьему интерпретацию можно лишь после обучения.
Обучение НСможно рассматривать как непрерывный или как дискретный процесс. В соответствиис этим алгоритмы обучения могут быть описаны либо дифференциальнымиуравнениями, либо конечно-разностными. В первом случае НС реализуется нааналоговой, во втором – на цифровых элементах. Мы будем говорить только оконечно-разностных алгоритмах.
Фактически НСпредставляет собой специализированный параллельный процессор или программу,эмулирующую нейронную сеть на последовательной ЭВМ.
Большинствоалгоритмов обучения (АО) НС выросло из концепции Хэбба. Он предложил простойалгоритм без учителя, в котором значение веса wij, соответствующее связимежду i-м и j-м нейронами, возрастает, если оба нейронанаходятся в возбужденном состоянии. Другими словами, в процессе обученияпроисходит коррекция связей между нейронами в соответствии со степеньюкорреляции их состояний. Это можно выразить в виде следующегоконечно-разностного уравнения:
/>,
где wij(t+ 1) и wij(t) – значения веса связейнейрона iс нейроном j до настройки (на шаге t+1) и после настройки (нашаге t) соответственно; vi(t)– выход нейрона i и выход нейрона j на шагеt; vj (t)– выход нейрона j на шагеt; α– параметр скоростиобучения.
Стратегияобучения нейронных сетей
Наряду салгоритмом обучения не менее важным является стратегия обучения сети.
Одним изподходов является последовательное обучение сети на серии примеров (Хi, Hi) i = 1, 2, …, m, составляющих обучающуювыборку. При этом сеть обучают правильно реагировать сначала на первый образ Х1,затем на второй Х2 и т.д. Однако, в данной стратегиивозникает опасность утраты сетью ранее приобретенных навыков при обучениикаждому следующему примеру, то есть сеть может «забыть» ранее предъявленныепримеры. Чтобы этого не происходило, надо сеть обучать сразу всем примерамобучающей выборки.
/>/>/>Х1 ={Х11,…, Х1N} можно обучать 100 ц 1
Х2 = {Х21,…,Х2N} 100 ц 2 100 ц
……………………
Хm = {Хm1,…, ХmN} 100 ц 3
Так какрешение задачи обучения сопряжено с большими сложностями, альтернативойявляется минимизация целевой функции вида:
/>,
где li – параметры, определяющиетребования к качеству обучения нейронной сети по каждому из примеров, такие,что λ1 + λ2 + … + λm = 1.
Практическаячасть.
Сформируемобучающее множество:
P_o=cat (1, Mt, Mf);
P_o=P_o';
Зададимструктуру нейронной сети для задачи обнаружения:
net = newff (minmax(P_o), [npr 2], {'logsig', 'logsig'}, 'trainlm', 'learngdm');
net.trainParam.epochs = 100;% заданноеколичество циклов обучения
net.trainParam.show = 5;% количество цикловдля показа промежуточных результатов;
net.trainParam.min_grad = 0;% целевое значениеградиента
net.trainParam.max_fail = 5;% максимальнодопустимая кратность превышения ошибки проверочной выборки по сравнению сдостигнутым минимальным значением;
net.trainParam.searchFcn= 'srchcha';% имя используемого одномерного алгоритма оптимизации
net.trainParam.goal= 0;% целевая ошибка обучения
Функция newffпредназначена для создания «классической» многослойной нейронной сети собучением по методу обратного распространения ошибки. Данная функция содержитнесколько аргументов. Первый аргумент функции – это матрица минимальных имаксимальных значений обучающего множества Р_о, которая определяется с помощьювыражения minmax (P_o).
Вторыеаргументы функции, задаются в квадратных скобках и определяют количество иразмер слоев. Выражение [npr 2] означает, что нейронная сеть имеет 2 слоя. Впервом слое – npr=10 нейронов, а во втором – 2. Количество нейронов в первом слоеопределяется размерностью входной матрицы признаков. В зависимости отколичества признаков в первом слое может быть: 5, 7, 12 нейронов. Размерностьвторого слоя (выходной слой) определяется решаемой задачей. В задачахобнаружения полезного сигнала на фоне микросейсма, классификации по первому ивторому классам, на выходе нейронной сети задается 2 нейрона.
Третьиаргументы функции определяют вид функции активации в каждом слое. Выражение{'logsig', 'logsig'} означает, что в каждом слое используетсясигмоидально-логистическая функция активации />,область значений которой – (0, 1).
Четвертыйаргумент задает вид функции обучения нейронной сети. В примере задана функцияобучения, использующая алгоритм оптимизации Левенберга-Марквардта – 'trainlm'.
Первыеполовина векторов матрицы Т инициализируются значениями {1, 0}, а последующие –{0, 1}.
net=newff (minmax(P_o), [10 2], {'logsig', 'logsig'}, 'trainlm', 'learngdm');
net.trainParam.epochs = 1000;
net.trainParam.show = 5;
net.trainParam.min_grad= 0;
net.trainParam.max_fail= 5;
net.trainParam.searchFcn= 'srchcha';
net.trainParam.goal= 0;
Программаинициализации желаемых выходов нейронной сети Т:
n1=length(Mt(:, 1));
n2=length(Mf(:, 1));
T1=zeros(2, n1);
T2=zeros(2, n2);
T1(1,:)=1;
T2(2,:)=1;
T=cat(2, T1, T2);
Обучение нейросети:
net= train (net, P_o, T);
/>
Рисунок 25 – График обучения нейронной сети.
Произведемконтроль нейросети:
P_k=[Mt; Mf];
P_k=P_k';
Y_k=sim(net, P_k);
Команда sim передает данные изконтрольного множества P_k на вход нейронной сети net, при этом результаты записываются в матрицувыходов Y_k. Количество строк вматрицах P_k и Y_k совпадает.
Pb=sum(round(Y_k (1,1:100)))/100
Оценкавероятности правильного обнаружения гусеничной техники Pb=1 alpha = sum (round(Y_k (1,110:157)))/110
Оценкавероятности ложной тревоги alpha =0
Определяемсреднеквадратическую ошибку контроля с помощью желаемых и реальных выходовнейронной сети Еk.
[Ek] = T-Y_k;
sqe_k = mse(Ek)
Величинасреднеквадратической ошибки контроля составляет:
sqe_k = 2.5919e-026
Протестируемработу нейросети. Для этого сформируем матрицу признаков тестового сигнала:
h3=tr_t50-mean(tr_t50);
Mh1=MATRPRIZP(h3,500, N1, N2);
Mh1=Mh1(1:50,:);
P_t=[Mh1;Mt];
P_t=P_t';
Y_t=sim(net, P_t);
Pb=sum (round(Y_t (1,1:100)))/100
Оценкавероятности правильного обнаружения гусеничной техники Pb=1
Находимразницу желаемых и реальных выходов нейронной сети Е и определяем среднеквадратическуюошибку тестирования.
[Ek] = T-Y_t;
sqe_t = mse(Ek)
Величинасреднеквадратической ошибки тестирования составляет:
sqe_t = 3.185e-025
Вывод:в данном разделе мы построилимодель обнаружителя сейсмических сигналов на нейронной сети с обучением пометоду обратного распространения ошибки. Задача обнаружения решается с небольшими погрешностями, следовательно признаки подходят для обнаружения.
Даннуюдвухслойную нейронную сеть можно применить в построении системы обнаруженияобъектов.

Заключение
Целью даннойкурсовой работы было изучение методов обработки информации и применение их длярешения задач обнаружения объектов.
В ходепроделанной работы, которая выполнялась в четыре этапа, были получены следующиерезультаты:
1) Былипостроены гистограммы выборочных плотностей вероятности амплитуд сигналов, какслучайных величин.
Оцененыпараметры распределения: математическое ожидание, дисперсию,среднеквадратическое отклонение.
Сделалипредположение о законе распределения амплитуды и проверили гипотезу покритериям Колмогорова-Смирнова и Пирсона на уровне значимости 0,05. По критериюКолмогорова-Смирнова распределение подобрано, верно. По критерию Пирсонараспределение подобрано верно только для фонового сигнала. Для него принялигипотезу о нормальном распределении.
Принялисигналы за реализации случайных функций и построили для них корреляционныефункции. По корреляционным функциям определили, что сигналы имеют случайныйколебательный характер.
2)Сформировали обучающее и контрольное множества данных (для обучения и контролянейронной сети).
3) Дляобучающей матрицы оценили параметры распределения признаков: математическоеожидание, дисперсию, среднее квадратическое отклонение. По каждому признаку обучающейматрицы заданных классов вычислили расстояние и выбрали признак с максимальнойразностью. Вычислили порог принятия решения и построили на одном графике кривыеплотности распределения вероятности. Сформулировали решающее правило.
4)Обучилидвухслойную нейронную сеть на решение задачи классификации. Оценили вероятностиправильного обнаружения и ложной тревоги. Те же показатели оценили по тестовымсигналам.

Списокиспользуемой литературы
1.   Лекции по теорииобработки информации в СБЛ. Лектор: Чистова Г.К.
2.   Чистова Г.К. «Основыобработки и обнаружения случайных сигналов»
3.   Вентцель Е.С.«Теория вероятности и математическая статистика»


Не сдавайте скачаную работу преподавателю!
Данный реферат Вы можете использовать для подготовки курсовых проектов.

Поделись с друзьями, за репост + 100 мильонов к студенческой карме :

Пишем реферат самостоятельно:
! Как писать рефераты
Практические рекомендации по написанию студенческих рефератов.
! План реферата Краткий список разделов, отражающий структура и порядок работы над будующим рефератом.
! Введение реферата Вводная часть работы, в которой отражается цель и обозначается список задач.
! Заключение реферата В заключении подводятся итоги, описывается была ли достигнута поставленная цель, каковы результаты.
! Оформление рефератов Методические рекомендации по грамотному оформлению работы по ГОСТ.

Читайте также:
Виды рефератов Какими бывают рефераты по своему назначению и структуре.

Сейчас смотрят :

Реферат Мусульманське право (шаріат). Політика Ф. Рузвельта
Реферат Общества, миросистемы и цивилизации - синтез парадигм и структура истории
Реферат Компьютеризация и делопроизводство
Реферат 3. Улавливание аэрозолей в мокрых пылеуловителях Полые, насадочные, пенные, ударные, инерционные, турбулентные газопромыватели
Реферат Physicianassisted Suicide Essay Research Paper Introduction
Реферат Washington
Реферат Ліквідація юридичної особи в зв’язку з банкрутством
Реферат OSS: экономия средств или недополученная прибыль?
Реферат Изменение глазного дна у новорожденных при нормальных и патологических родах
Реферат Гемофилезный полисерозит
Реферат The Modified Market Economy Essay Research Paper
Реферат ArabIsraeli Wars Essay Research Paper ArabIsraeli WarsEssay
Реферат Передача массива информации в параллельном формате между двумя микроЭВМ КР580ВН80А с использованием БИС КР580ВВ55
Реферат Творческая работа по химии: кислород
Реферат Frank Lloyd Wright Essay Research Paper Frank