Реферат по предмету "Коммуникации и связь"


Классификация римских цифр на основе нейронных сетей

ЗАДАНИЕ
на курсовое проектированиеТема курсового проекта Классификация римскихцифр на основе нейронных сетей
Исходные данные к проекту
1.      NeuroShell2русскоеиздание
2.      NeuroShellClassifier v2.
3.      NeuroPro
Содержание пояснительной записки
1.      Назначениепроекта
2.      Требования
3.      Выборнейронной сети и нейропакета
4.      Обучение
5.      Блок-схемаалгоритма обучения
6.      Тестовыйпример
Рекомендуемая литература
1.      Стандартпредприятия СТП 1–У–НГТУ–98
2.      Круглов В.В.,Борисов В.В. Искусственные нейронные сети. Теория и практика. – М.: Горячаялиния – Телеком, 2001. – 382 с.: ил.
3.      Электронныйучебник по NeuroShell 2
4.      Каллан Р. Основные концепции нейронных сетей

Содержание
1      Анализ исходныхданных и разработка ТЗ
1.1 Основание иназначение разработки
1.2 Классификациярешаемой задачи
1.3 Предварительныйвыбор класса нейронной сети
1.4 Предварительныйвыбор структуры нейронной сети
1.5 Выбор пакетанейронной сети
1.6 Минимальныетребования к информационной и программной совместимости
1.7 Минимальныетребования к составу и параметрам технических средств
2      Обучениенейронной сети
2.1 Формированиеисходных данных
2.2 Окончательныйвыбор модели, структуры нейронной сети
2.3 Выбор параметровобучения
2.4 Оптимальныепараметры обучения
2.5 Блок-схемаалгоритма обучения
3      Анализ качестваобучения
Вывод
Список использованных источников

1. Анализ исходныхданных и разработка технического задания
 
1.1 Основание иназначение разработки
Данную разработкутехнического задания можно отнести к применению нейронных сетей, выполняетсякак курсовая работа в пределах дисциплины «Представление знаний в информационныхсистемах». Целью данной разработки является освоение моделирования нейронныхсетей. Назначением работы является необходимость решения задачи классификацияримских цифр на основе нейронной сети.
1.2 Классификациярешаемой задачи
 
Исходными данными вработе является набор изображений некоторого размера.
Рассмотрим классификациюрешаемых задач искусственных нейронных сетей по книге [Терехов]. Вид исходныхданных может быть представлен в виде:
А — распознавание и классификация:
входные данные необходимоотнести к какому-либо из известных классов при управляемом обучении(классификации); при обучении без управления (кластеризации) сеть проводитразделение входных образцов на группы самостоятельно, при этом все образцыодного кластера должны иметь что-то общее — они будут оцениваться, какподобные.
Исходными даннымиявляется вектор признаков, выходные данные — вектор, значения всех координаткоторого должны быть равными О, за исключением координаты, соответствующейвыходному элементу, представляющему искомый класс(значение этой координатыдолжно быть равным 1).
К этому классу задачтакже относится категоризация (кластеризация). Исходными данными являетсявектор признаков, в котором отсутствуют метки классов.
В — аппроксимация функций:
 предположим,что имеется обучающая выборка ((xl yi), (х2, у2),..., (xn, yw)), которая генерируется неизвестнойфункцией, искаженной шумом. Задача аппроксимации состоит в нахождении оценкиэтой функции.
Исходные данные – набор обучающих векторов. Выход сети –рассчитанное сетью значение функции.
С --предсказание/прогноз:
 пустьзаданы N дискретных отсчетов {(y(f1), y(f2), …, y(fN)} в последовательные моменты времениt1, t2, …, tN. Задачасостоит в предсказании значения y(tN+1) в момент tN+1. Прогноз имеют значительное влияниена принятие решений в бизнесе, науке и технике.
 Исходные данные – вектора данных по M признакам за T периодов времени. Выход сети –вектора данных по Mпризнакам запериоды времени T+L.
D— оптимизация:
многочисленные проблемы в математике, статистике, технике,науке, медицине и экономике могут рассматриваться как проблемы оптимизации.Задачей оптимизации является нахождение решения, которое удовлетворяет системеограничений и максимизирует или минимизирует целевую функцию.
E— Память, адресуемая по содержанию:
В моделивычислений фон Неймана обращение к памяти доступно только посредством адреса,который не зависит от содержания памяти. Более того, если допущена ошибка ввычислении адреса, то может быть найдена совершенно иная информация. Память, адресуемаяпо содержанию, или ассоциативная память, доступна по указанию заданного содержания.Содержимое памяти может быть вызвано даже по частичному или искаженномусодержанию. Ассоциативная память чрезвычайно желательна при созданииперспективных информационно-вычислительных систем.
F— Управление:
Рассмотрим динамическую систему, заданную совокупностью {u(t), y(t)}, где u(t) является входным управляющим воздействием, a y(t) — выходом системы в момент времени t. В системах управления с эталонноймоделью целью управления является расчет такого входного воздействия u(t), при котором система следует по желаемой траектории,диктуемой эталонной моделью.
Исходными данными дляданной задачи является вектора(из нулей и единиц) размерности 63, которыеописывают каждую из 9 римских цифр, выбранных для обучения. Исходные данныепредлагаются в прилагаемом файле “данные для нейросети”.
В этом же файлесодержатся и выходные вектора размерности 9, где единица в одном из 9 положенийозначает принадлежность классифицируемого образца к той или иной букве.
Сеть, принимая входнойвектор, должна в соответствии с ним выдать соответствующий даннойпоследовательности выходной вектор.
Исходя из исходныхданных, данная задача относится к классу A- задача классификации.
1.3 Предварительныйвыбор класса НС
 
Рассмотрим классификациюискусственных нейронных сетей по Терехову (Управление на основе нейронныхсетей). В книге говорится о различиях вычислительных процессов в сетях,частично обусловленных способом взаимосвязи нейронов, поэтому выделяютследующие виды сетей, при помощи которых можно решить данную задачу:
·               сети прямогораспространения (feedforward);
·               сети с обратнымисвязями (feedforward /feedback);
·               гибридные сети (fuzzy).
·               некоторые моделисетей, основанных на статических методах
Для решения нашей задачинаиболее подходящими классами являются классы статических и динамических сетей,так как первые позволяют довольно эффективно решать достаточно широкий диапазонзадач (наиболее известными и используемыми являются многослойные нейронные сети, где искусственные нейроны расположены слоями. ), а вторые из-за обратныхсвязей состояние сети в каждый момент времени зависит от предшествующегосостояния, что позволяет эффективно обучать сеть и подстраивать весовыекоэффициенты (наиболее известны сети Хопфилда, т. к. в них происходит обучениепо обратному распространению ошибок). Также подходят сети, основанные настатических методах (среди них можно выделить вероятностную нейронную сеть).Сети, с помощью которых нельзя решить поставленную задачу: нечёткие структуры (fuzzy), среди которых можно выделить сети(«самоорганизующихся карт») Кохонена, а так же сети с «радиальными базиснымифункциями» активации.
Остановим свой выбор на следующих видах сетей:
·            многослойныйперсептрон
·            сети Ворда
·            сети Кохонена
·            вероятностнаянейронная сеть
1.4 Предварительныйвыбор структуры НС
Понятие структуры НСвключает в себя
·         Количество слоев,
·         Количествонейронов в каждом слое,
·         Вид функцииактивации,
·         Обратные связи
Входные данные для всех четырехтипов сетей одинаковые, и представляют собой вектора из 0 и 1, полученный врезультате деления растрового изображения сеткой 7х9.
Выходные данные для всехсетей кроме сети Кохонена – вектор из нулей и единиц размерности 9, так какчисло классов равно 9.
Многослойный персептрон,как и сети Ворда, обладает тем большими интеллектуальными способностями, чембольше число связей внутри сети.
Число скрытых нейроновдля этих классов сетей определим по формуле:
N скрытых нейронов =1/2 (Nвходов + Nвыходов) + корень квадратный из количества тренировочныхпримеров.
Число входных нейронов63. Число выходных 9. По формуле число скрытых нейронов 48.
Определим число слоев:
Число связей при 1скрытом слое равно (между слоями каждый нейрон соединен с каждым):
63*48+48*9=3456
при 2 скрытых слоях:
63*24+24*24+24*9=2304
при 3 слоях:
63*16+16*16+16*16+16*9=1664
Таким образом оптимальноечисло скрытых слоев равно 2.
В вероятностной нейроннойсети и сети Кохонена выбор числа входных нейронов равен числу примеров (в нашемслучае 63), а выходных – числу категорий (в нашем случае 9).
Для ВНС число скрытыхнейронов должно быть не менее числа примеров (в нашем случае 10 – на 1 болечисла примеров).
вид функций активации: зависит от окончательного выборамодели и структуры (наиболее подходящими являются логистическая (сигмоидальная)и линейная).
Скорость обучения выберемисходя из того, что при очень большой скорости сеть может обучиться неверно, апри очень маленькой процесс обучения может быть долгим.

1.5 Выбор пакета НС
 
Выбор пакета основывалсяна следующих принципах:
• Доступность пакета;
• Полнота пакета (наличиенеобходимых моделей сети, достаточного количества параметров для построения иобучения нейронных сетей);
• Простота использования;
• Русифицированнаядокументация
• Работа с .bmp файлами
Опираясьна [Круглов, Борисов] проведем сравнительный анализ нескольких пакетов:
1)     NeuroPro
2)     NeuroShell 2
3)     NeuroShell Classifier v2.0
4)     QwikNet32 v2.1
5)     Neural Planner
Нейропакет NeuroPro
Возможности программы:
1) Работа (чтение, запись, редактирование) с файлами данных,представленными в форматах *.dbf(СУБД dBase, FoxPro, Clipper)и *.db (СУБД Paradox).
Создание слоистых нейронных сетей для решения задачпрогнозирования:
• число слоев нейронов — до 10;
• число нейронов в слое — до 100;
• нейроны: с нелинейной сигмоидальной функцией активации f(A) = А/(|А|+ с), крутизна сигмоидыможет задаваться отдельно т для каждого слоя нейронов.
Нейронная сеть может одновременно решать несколько задачпрогнозирования; для каждого из выходных сигналов могут быть установлены своитребования к точности прогнозирования.
2) Обучение нейронной сети производится по принципудвойственного функционирования с применением одного из следующих методов оптимизации:
• градиентного спуска;
• модифицированного ParTan — метода;
• метода сопряженных градиентов.
Работа с .bmp файлами: нет.
Руководство: есть.
Наличие пакета: есть.
Нейропакет NeuroShell2
Для начинающегопользователя непонятный интерфейс.
Обучающая выборкаформируется достаточно просто, поддерживает импорт таблиц с входными данными вформате Excel или Lotus.
Работа с .bmp файлами: нет.
Наличие пакета: есть.
Руководство: есть(русифицированное).
Кроме русскоязычногоруководства, есть учебник по NeuroShell 2.
Нейропакет реализуетширокий круг типов нейронных сетей.
Нейропакет NeuroShellClassifierv2.0
Этот пакет являетсясредством разработки нейронносетевых приложений, для решения проблемклассификации. Поддержка генетических алгоритмов.
Работа с .bmp файлами: нет.
Руководство: есть.
Пакет на английскомязыке.
Наличие пакета: есть.
Нейропакет QwikNet32 v2.1
В QwikNet реализуется лишь один тип нейроннойсети — многослойная сеть прямого распространения с числом скрытых слоев до 5 ис набором из 6 алгоритмов обучения (модификации алгоритма обратногораспространения ошибки).
Работа с .bmp файлами: нет.
Руководство: есть(русифицированное).
Пакет на английскомязыке.
Наличие пакета: нет.
Нейропакет NeuralPlanner
Предназначен для решенияразличных задач классификации объектов, обработки значений случайных процессов,решения некоторых математических задач, создания эффективных экспертных систем.
Работа с .bmp файлами: нет.
Руководство: есть(русифицированное).
Пакет на английскомязыке.
Наличие пакета: нет.
Таблица 1 СравнениепакетовПакет Доступность Наличие необходимых моделей НС Русификация / руководство на русском Работа с .bmp Neural Planner нет есть нет / есть нет QwikNet32 v2.1 нет нет нет / есть нет NeuroShell Classifier v2.0 есть есть нет / нет нет NeuroShell 2 есть есть есть / есть нет NeuroPro есть нет нет / есть нет
Исходя из сравнительногоанализа нейропакетов останавливаем свой выбор на продукте NeuroShell 2.
 

1.6 Минимальные требования кинформационной и программной совместимости
 
MicrosoftOffice 2000, XP
Пакет NeuroShell 2
Графический редактор (Paint)
 
1.7 Минимальные требования к составуи параметрам технических средств
 
Операционная система Windows 95 или выше
32 Мб ОЗУ
500 Кб HDD
2. Обучение НС
 2.1 Формирование исходных данных
В качестве исходныхданных в задаче выступает графическое изображение римских цифр с различнымивариациями. Поскольку в выбранном пакете нет графического редактора, изображениепреобразуют в последовательность нулей и единиц по определенным правилам.
Данный пакет позволяетподавать на вход нейросети порядка 32000 значений для одной обучающей пары, нонеобходимо ограничить размер входного изображения, т.к. MS Excel XP имеет максимальное число столбцов 256.
При создании входноговектора мы руководствовались несколькими критериями:
·     Макимальная различимость
·     Минимальный размер
Изначальнорассматривались различные варианты размерности входного вектора.
Минимально дляразличимости символов высота изображения цифры требуется 7 пикселей, т.к. 2пиксела идет на изображение подчеркивания (это является особенностью написанияримских цифр), а оставшиеся 5 на сам символ. На сетке меньшей высоты теряетсяразличимость. Для определения второго параметра изображения мы брали в расчетте цифры, для написания которых требуется максимальная ширина сетки: это цифры7 и 8. При написании этих цифр минимальной оказалась ширина = 9 пикселам. Делов том что эти цифры состоят из нескольких символов: основной символ,изображающий цифру 5 либо 10, а также дополнительные, которые показываютсколько к основной цифре нужно добавить (либо отнять) единиц, чтобы получиласьискомая. А поскольку именно в эти цифры входит максимально для наших данных подва дополнительных символа, два пиксела мы оставляем на промежуток междусимволами и основной символ, нам потребовалось не менее 9 пикселей.
Таким образом длямоделирования был выбран размер изображения 7x9 пикселей.
Обучающая пара содержит 63+9=72значения.
Представили 144 объектаразличной формы.
В Excel получили файл, таблицу с обучающимипараметрами.
Наш объект заносится втаблицу при помощи нулей и единиц, т.е. формируется соответствующий массив,записанный в одну строку, также в процессе обучения используются реальныевыходные значения, которые записаны как одно значения в конце строкисформированного массива. Объекты, расположение которых должно быть выученосетью, представляются размерной сеткой (7x9), где темным пикселям (частям объекта) соответствуют 1, абелым (пустое пространство) – 0.
/> /> 
изображение римской цифры9.
изображение умышленноперевернуто нами для достижения лучшей терпимости сети к подаваемому углуизображения.2.2 Окончательный выбор модели, структуры НС
По рекомендациямразработчиков пакета критерием остановки обучения будет:
события после минимума> 20000, так как с использованием встроенной калибровки этот критерийпозволяет избежать переучивания сети и запоминания тестовых примеров.
Рассмотрим наиболееподходящие сети для решения данной задачи. Основные параметры, такие как видыфункций активации: скорость обучения (=0,1), веса (=0,3), момент равен (=0,1)
По умолчанию дляпредсказания рекомендуется использовать сеть Ворда, содержащую два скрытыхблока с разными передаточными функциями.
Стандартные сети.
Попробуем провестиобучение с помощью модели 4-хслойной сети, в которой каждый слойсоединён только с предыдущим слоем.
Структура НС:
1.                количество слоев:4
2.                количествонейронов:
а) во входном слое: 63
б) в выходном слое: 9
3. вид функций активации:
а) входной слой –линейная [0;1]
б) выходной слой –логистическая
В таблице отраженазависимость минимальной средней ошибки на тренировочном и тестовом наборах отколичества нейронов в скрытом слое.
Скорость обучения = 0,1;момент = 0,1; скрытые слои – слой 1 – 24 нейрона, слой 2 – 24 нейрона.
 
Таблица данныхВремя обучения Функции активации Min средняя ошибка 1слой 2слой на тренировочном наборе на тестовом наборе 03:18 логистическая логистическая 0,0000036 0,0002548 08:03 Гауссова Гауссова 0,0000006 0,0003652 00:05 линейная линейная 0,5047548 0,7126971 01:01 компГауссова компГауссова 0,0000059 0,0004709

Исходя из таблицы,оптимальной структурой для данной сети являестся сесть с Гауссовымиактивационными функциями. Вых1 Вых2 Вых3 Вых4 Вых5 Вых6 Вых7 Вых8 Вых9 R квадрат 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 0,9995 1,0000 0,9999 СКО 0,002 0,002 0,001 0,001 0,001 0,002 0,007 0,001 0,004 Относ СКО % 0,155 0,195 0,073 0,057 0,082 0,166 0,722 0,084 0,351
НС после обучения показываетне очень хорошие обобщающие данные. Неплохие обобщающие данные сеть в серединеинтервала.
Скорость обучения иначальный момент на качество обобщения не влияют.
 
Сеть Ворда с двумяблоками в скрытом слое.
Структура НС:
1.       количество слоев: 4
2.       количество нейронов:
а) во входном слое: 63
б) в выходном слое: 9
В таблице отраженазависимость минимальной средней ошибки на тренировочном и тестовом наборах ивремени обучения от вида функций активации.
Скорость обучения = 0,1;момент = 0,1
 
Таблица данных1 скрытый слой 2 скрытый слой Min средняя ошибка Время обучения Функция активации Кол-во нейронов Функция активации Кол-во нейронов на тренировочном наборе на тестовом наборе Комп.Гауссова 24 Комп. Гауссова 24 0,0000016 0,0005358 04:42 Гауссова 24 Гауссова 24 0,0000017 0,0019529 03:58 логистическая 24 логистическая 24 0,0000058 0,0003688 02:18 логистическая 24 Комп.Гауссова 24 0,0000043 0,0006007 01:35
Исходя из таблицы дладанной сети оптимальными будут гауссовы функции активации. Вых1 Вых2 Вых3 Вых4 Вых5 Вых6 Вых7 Вых8 Вых9 R квадрат 1.0000 0.9992 0.9999 1.0000 0.9999 1.0000 0.9995 1.0000 1.0000 СКО 0.002 0.009 0.003 0.001 0.003 0.001 0.021 0.001 0.002 Относ СКО % 0.152 0.910 0.275 0.107 0.320 0.133 2.112 0.128 0.153
Данная сеть после обученияпоказывает хорошие обобщающие данные.
Скорость обучения иначальный момент на качество обобщения не влияют.
Сеть Ворда с двумяблоками в скрытом слое и с обходным соединением
Структура НС:
1.                количество слоев:4
2.                количествонейронов:
а) во входном слое: 63
б) в выходном слое: 9
3. активационная функция
а) во входном слое: линейная
б) в выходном:логистическая
В таблице отраженазависимость минимальной средней ошибки на тренировочном и тестовом наборах ивремени обучения от вида функций активации.
Скорость обучения = 0,1;момент = 0,1

Таблица данных
 1 скрытый слой 2 скрытый слой Min средняя ошибка Время обучения Функция активации Кол-во нейронов Функция активации Кол-во нейронов на тренировочном наборе на тестовом наборе Гауссова 24 компГауссова 24 0,0000013 0,0034898 02:59 Гауссова 24 Гауссова 24 0,0000005 0,0065507 05:21 компГауссова 24 компГауссова 24 0,0000017 0,0037426 02:29 логистческая 24 логистическая 24 0,0000147 0,0019549 00:38
Исходя из таблицы дладанной сети оптимальными будут функции активации Гауссова для 1 слоя и Комплем.Гауссова для 2 слоя. Вых1 Вых2 Вых3 Вых4 Вых5 Вых6 Вых7 Вых8 Вых9 R квадрат 0,9995 0,9995 0,9986 0,9995 0,9983 0,9994 0,9996 0,9977 0,9979 СКО 0,007 0,008 0,013 0,007 0,012 0,007 0,006 0,014 0,015 Относ СКО % 0,690 0,760 1,258 0,692 1,230 0,746 0,620 1,429 1,512
Данная сеть послеобучения показывает не очень хорошие обобщающие данные.
Скорость обучения иначальный момент на качество обобщения не влияют.
Сеть Кохонена
Структура НС:
1.                кол-во нейронов
a.       входной слой: 63
b.       выходной слой: 9
2.                скоростьобучения: 0,5
3.                начальные веса:0,5
4.                окрестность: 8
5.                эпохи: 500

в таблице отраженазависимость средней количества неиспользованных категорий от пораметров выборапримеров и метрик расстояния.Параметры выбора примеров Метрики расстояния Время обучения Кол-во неиспозльзованных категорий поочередный евклидова 00:02 1 случайный евклидова 00:02 1 поочередный нормированная 00:02 3 случайный нормированная 00:02 2
Данная сеть обладаетплохим обобщением.
На данной диаграммепоказаны сравнительные данные по времени обучения рассмотренных сетей. 
Т.к сеть Кохоненаобладает наихудшими обобщением, ее в диаграмму не включаем.
/>

На данной диаграммепоказаны сравниваемые нами значения выходных данных обученных сетей.
/>
Исходя из представленныхдиаграмм оптимальной для нас будет сеть Ворда с 2мя скрытыми блоками.
2.3 Выбор параметровобучения
 
Находим оптимальныепараметры:
• скорость обучения в интервале от 0до1
• момент в интервале от 0 до 1
• начальные веса от 0 до 1
 
1. Зависимостькачества обучения от скорости обученияСкорость обучения 0,1 0,5 0,7 1 Мин. ср. ошибка на тест. наборе 0,0019529 0,0006956 0,0005016 0,0002641

2.Зависимость качестваобучения от момента
 Момент 0,1 0,5 0,7 1 Мин. ср. ошибка на тест. наборе 0,0019529 0,0012411 0,0013824 0,5690943
 
3.Зависимость качестваобучения от начальных весов
 Начальный вес 0,1 0,3 0,7 1 Мин. ср. ошибка на тест. наборе 0,0010359 0,0019529 0,0032182 0,0031102
 
2.4 Оптимальныепараметры обучения
Скорость обучения: 0,1
Начальный момент: 0,1
Начальные веса: 0,3
Модель — Сеть Ворда сдвумя блоками в скрытом слое.
Структура НС:
1.               количество слоев:4
2.               количествонейронов:
1)                блок 1: 63
2)                блок 2: 24
3)                блок 3: 24
4)                блок 4: 9
3. вид функций активации:
1)                блок 1 – линейная[0;1]
2)                блок 2 –гауссова
3)                блок 3 –гауссова
4)                блок 5 –логистическая.

2.5Блок-схема алгоритма обучения
/>

3.Анализ качества обучения
При данных оптимальныхпараметрах результаты применения сети можно представить виде таблицы Вых1 Вых2 Вых3 Вых4 Вых5 Вых6 Вых7 Вых8 Вых9 R квадрат 1.0000 0.9992 0.9999 1.0000 0.9999 1.0000 0.9995 1.0000 1.0000 СКО 0.002 0.009 0.003 0.001 0.003 0.001 0.021 0.001 0.002 Относ СКО % 0.152 0.910 0.275 0.107 0.320 0.133 2.112 0.128 0.153 доля с ош 30%
Для проверки способностейк обобщению на вход сети подаются зашумленные последовательности входныхсигналов. Процент зашумления показывает, какое количество битов входноговектора было инвертировано по отношению к размерности входного вектора.
Для зашумления 5% сетьвыдает такие результаты: Вых1 Вых2 Вых3 Вых4 Вых5 Вых6 Вых7 Вых8 Вых9 Rквадрат 0,9868 0,9884 0,9800 0,9831 0,9843 0,9830 0,9814 0,9855 0,9838 СКО 0,036 0,034 0,044 0,041 0,039 0,041 0,043 0,038 0,040 Относ СКО % 3,616 3,385 4,448 4,089 3,942 4,096 4,289 3,781 3,998 доля с ош30%
Далее мы подавалиразличное количество инвертированных битов.
В таблице представленазависимость количества инвертированных битов от количества правильных ответовна выходеКоличество инвертированных битов Количество верных ответов на выходе 50 25 2 13 9 19 6 16 7 15 8 14 8
Таким образом мы выявиликритическое количество зашумленных данных = 16 на каждый входной вектор.
Это соответствует 20%зашумления. При большем зашумлении входных данных сеть не может отдатьпредпочтение одной цифре, причем с увеличением зашумления количество таких букврастет.
Результаты сети прикритическом зашумлении: Вых1 Вых2 Вых3 Вых4 Вых5 Вых6 Вых7 Вых8 Вых9 R квадрат 0,7193 0,8274 0,6583 0,7303 0,7928 0,6981 0,9135 0,8702 0,7746 СКО 0,028 0,017 0,034 0,027 0,020 0,030 0,009 0,013 0,022 Относ СКО % 16,650 13,057 18,369 16,322 14,304 17,268 9,243 11,321 14,922 доля с ош 30% 11,111 11,111 11,111 11,111 11,111
Судя по анализу качестваобучения, сеть хорошо справляется при 20% зашумлении.
Это говорит о том что усети неплохой потенциал для обобщения.

Выводы
В ходе данной курсовойработы были получены навыки моделирования нейронных сетей, а также была решеначастная задача моделирования нейронной сети для классификации римских цифр.Исходными данными для сети являлись изображения римских цифр, представленныевиде матриц, размерностью 7х9.
Обученная нейронная сетьхорошо себя показала при 20% уровне шума. Для увеличения этого показателя нужноснизить риск возникновения критических шумов. Этого можно достигнуть путемувеличения размерности сетки.

Список использованных источников
1        Стандартпредприятия СТП 1–У–НГТУ–98
2        Круглов В.В.,Борисов В.В. Искусственные нейронные сети. Теория и практика. – М.: Горячаялиния – Телеком, 2001. – 382 с.: ил.
3        Электронныйучебник по NeuroShell 2
4        Каллан Р.Основные концепции нейронных сетей
5        Ресурсы сетиИнтернет


Не сдавайте скачаную работу преподавателю!
Данный реферат Вы можете использовать для подготовки курсовых проектов.

Поделись с друзьями, за репост + 100 мильонов к студенческой карме :

Пишем реферат самостоятельно:
! Как писать рефераты
Практические рекомендации по написанию студенческих рефератов.
! План реферата Краткий список разделов, отражающий структура и порядок работы над будующим рефератом.
! Введение реферата Вводная часть работы, в которой отражается цель и обозначается список задач.
! Заключение реферата В заключении подводятся итоги, описывается была ли достигнута поставленная цель, каковы результаты.
! Оформление рефератов Методические рекомендации по грамотному оформлению работы по ГОСТ.

Читайте также:
Виды рефератов Какими бывают рефераты по своему назначению и структуре.