Реферат по предмету "Информатика"


Генетический алгоритм 3

--PAGE_BREAK--


ЛИСТ ЗАМЕЧАНИЙ


СОДЕРЖАНИЕ



ВВЕДЕНИЕ. 2

1МОДЕЛИРОВАНИЕ РАБОТЫ НЕЙРОННОЙ СЕТИ. 2

2АЛГОРИТМ ОБРАТНОГО РАСПРОСТРОНЕНИЯ ОШИБКИ. 2

3ГЕНЕТИЧЕСКИЙ АЛГОРИТМ… 2

4 ЭФФЕКТИВНОСТЬ ГЕНЕТИЧЕСКИХ АЛГОРИТМОВ. 2

4.1 Показатели эффективности генетических алгоритмов. 2

4.2 Скорость работы генетических алгоритмов. 2

4.3 Устойчивость работы генетических алгоритмов. 2

4.4 Направления развития генетических алгоритмов. 2

ЗАКЛЮЧЕНИЕ. 2

СПИСОК ЛИТЕРАТУРЫ… 2

ПРИЛОЖЕНИЕ. 2



    продолжение
--PAGE_BREAK--ВВЕДЕНИЕ


Принятие решения в большинстве случаев заключается в генерации всех возможных альтернатив, их оценке и выборе лучшей среди них. Принять «пра­вильное» решение — значит выбрать такой вариант из числа возможных, в котором с учетом всех разнообразных факторов и противоречивых требова­ний будет оптимизирована некая общая ценность, то есть решение будет в максимальной степени способствовать достижению поставленной цели.

Область применения генетических алгоритмов достаточно обширна. Они успешно используются для решения ряда больших и экономически значимых задач в бизнесе и инженерных разработках. С их помощью были разработаны промышленные проектные решения, позволившие сэкономить многомиллионные суммы. Финансовые компании широко используют эти средства для прогнозирования развития финансовых рынков при управле­нии пакетами ценных бумаг. Наряду с другими методами эволюционных вычислений генетические алгоритмы обычно используются для оценки значений непрерывных параметров моделей большой размерности, для решения комбинаторных задач, для оптимизации моделей, включающих одновременно непрерывные и дискретные параметры. Другая область при­менения — использование в системах извлечения новых знаний из больших баз данных, создание и обучение стохастических сетей, обучение нейрон­ных сетей, оценка параметров в задачах многомерного статистического анализа, получение исходных данных для работы других алгоритмов по­иска и оптимизации.





















    продолжение
--PAGE_BREAK--1МОДЕЛИРОВАНИЕ РАБОТЫ НЕЙРОННОЙ СЕТИ


Под нейронными сетями (НС) подразумеваются вычислительные структуры, которые моделируют простые биологические процессы, обычно ассоциируемые с процессами человеческого мозга. Адаптируемые и обучаемые, они представляют собой распараллеленные системы, способные к обучению путем анализа положительных и отрицательных воздействий. Элементарным преобразователем в данных сетях является искусственный нейрон или просто нейрон, названный так по аналогии с биологическим прототипом.

Как отмечалось, искусственная нейронная сеть (ИНС, нейросеть) — это набор нейронов, соединенных между собой. Как правило, передаточные (активационные) функции всех нейронов в сети фиксированы, а веса являются параметрами сети и могут изменяться. Некоторые входы нейронов помечены как внешние входы сети, а некоторые выходы — как внешние выходы сети. Подавая любые числа на входы сети, мы получаем какой-то набор чисел на выходах сети. Таким образом, работа нейросети состоит в преобразовании входного вектора X в выходной вектор Y, причем это преобразование задается весами сети. Практически любую задачу можно свести к задаче, решаемой нейросетью.

Моделирование сети начинается с выбора архитектуры. На данном этапе необходимо учесть:

-          какие нейроны мы хотим использовать (число входов, передаточные функции);

-          каким образом следует соединить их между собой;

-          что взять в качестве входов и выходов сети.

На втором этапе нам следует «обучить» выбранную сеть, т.е. подобрать такие значения ее весов, чтобы сеть работала нужным образом. Необученная сеть подобна ребенку — ее можно научить чему угодно. В используемых на практике нейросетях количество весов может составлять несколько десятков тысяч, поэтому обучение — действительно сложный процесс. Для многих архитектур разработаны специальные алгоритмы обучения, которые позволяют настроить веса сети определенным образом.

В зависимости от функций, выполняемых нейронами в сети, можно выделить три их типа:

-          входные нейроны — это нейроны, на которые подается входной вектор, кодирующий входное воздействие или образ внешней среды; в них обычно не осуществляется вычислительных процедур, информация передается с входа на выход нейрона путем изменения его активации;

-          выходные нейроны — это нейроны, выходные значения которых представляют выход сети;

-          промежуточные нейроны — это нейроны, составляющие основу искусственных нейронных сетей.

Обучить нейросеть — значит, сообщить ей, чего мы от нее добиваемся. Этот процесс очень похож на обучение ребенка алфавиту. Показав ребенку изображение буквы «А», мы спрашиваем его: «Какая это буква?» Если ответ неверен, мы сообщаем ребенку тот ответ, который мы хотели бы от него получить: «Это буква А». Ребенок запоминает этот пример вместе с верным ответом, т.е. в его памяти происходят некоторые изменения в нужном направлении. Мы будем повторять процесс предъявления букв снова и снова до тех пор, когда все буквы будут твердо запомнены. Такой процесс называют «обучение с учителем».

При обучении сети мы действуем совершенно аналогично. У нас имеется некоторая база данных, содержащая примеры (набор рукописных изображений  букв). Предъявляя изображение буквы «А» на вход сети, мы получаем от нее некоторый ответ, не обязательно верный. Нам известен и верный (желаемый) ответ, в данном случае нам хотелось бы, чтобы на выходе с меткой «А» уровень сигнала был максимален. Обычно в качестве желаемого выхода в задаче классификации берут набор (1, 0, 0,...), где 1 стоит на выходе с меткой «А», а 0 — на всех остальных выходах. Вычисляя разность между желаемым ответом и реальным ответом сети, мы получаем (для букв русского алфавита) 33 числа — вектор ошибки. Алгоритм обучения — это набор формул, который позволяет по вектору ошибки вычислить требуемые поправки для весов сети. Одну и ту же букву (а также различные изображения одной и той же буквы) мы можем предъявлять сети много раз. В этом смысле обучение скорее напоминает повторение упражнений в спорте — тренировку.

Оказывается, что после многократного предъявления примеров веса сети стабилизируются, причем сеть дает правильные ответы на все (или почти все) примеры из базы данных. В таком случае говорят, что «сеть выучила все примеры», «сеть обучена», или «сеть натренирована». В программных реализациях можно видеть, что в процессе обучения функция ошибки (например, сумма квадратов ошибок по всем выходам) постепенно уменьшается. Когда функция ошибки достигает нуля или приемлимого малого уровня, тренировку останавливают, а полученную сеть считают натренированной и готовой к применению на новых данных.

Важно отметить, что вся информация, которую сеть имеет о задаче, содержится в наборе примеров. Поэтому качество обучения сети напрямую зависит от количества примеров в обучающей выборке, а также от того, насколько полно эти примеры описывают данную задачу. Так, например, бессмысленно использовать сеть для предсказания финансового кризиса, если в обучающей выборке кризисов не представлено. Считается, что для полноценной тренировки требуется хотя бы несколько десятков (а лучше сотен) примеров.

Математически процесс обучения можно описать следующим образом. В процессе функционирования нейронная сеть формирует выходной сигнал Y в соответствии с входным сигналом X, реализуя некоторую функцию Y = G(X). Если архитектура сети задана, то вид функции G определяется значениями синоптических весов и смещений сети. Пусть решением некоторой задачи является функция Y = = F(X), заданная парами входных — выходных данных (X 1, Y 1 ), (X 2, Y 2 ), ..., (Xw, Yw), для которых Y k = F(X k ) (к = 1, 2, …,N).





Рисунок 5- Схема обучения сети

    продолжение
--PAGE_BREAK--2АЛГОРИТМ ОБРАТНОГО РАСПРОСТРОНЕНИЯ ОШИБКИ


Алгоритм обратного распространения ошибки (back propagation) — это итеративный градиентный алгоритм обучения, который используется с целью минимизации среднеквадратичного отклонения текущего выхода и желаемого выхода многослойных нейронных сетей.

Алгоритм обратного распространения используется для обучения многослойных нейронных сетей с последовательными связями вида. Нейроны в таких сетях делятся на группы с общим входным сигналом. Нейроны выполняют взвешенное (с синоптическими весами) суммирование элементов входных сигналов; к данной сумме прибавляется смещение нейрона. Над полученным результатом выполняется активационной функцией затем нелинейное преобразование. Значение функции активации есть выход нейрона.

В многослойных сетях оптимальные выходные значения нейронов всех слоев, кроме последнего, как правило, неизвестны, и трех- или более слойный персептрон уже невозможно обучить, руководствуясь только величинами ошибок на выходах НС. Наиболее приемлемым вариантом обучения в таких условиях оказался градиентный метод поиска минимума функции ошибки с рассмотрением сигналов ошибки от выходов НС к ее входам, в направлении, обратном прямому распространению сигналов в обычном режиме работы. Этот алгоритм обучения НС получил название процедуры обратного распространения.

В данном алгоритме функция ошибки представляет собой сумму квадратов рассогласования (ошибки) желаемого выхода сети и реального. При вычислении элементов вектора-градиента использован своеобразный вид производных функций активации сигмоидального типа. Алгоритм действует циклически (итеративно), и его циклы принято называть эпохами. На каждой эпохе на вход сети поочередно подаются все обучающие наблюдения, выходные значения сети сравниваются с целевыми значениями и вычисляется ошибка. Значение ошибки, а также градиента поверхности ошибок используется для корректировки весов, после чего все действия повторяются. Начальная конфигурация сети выбирается случайным образом, и процесс обучения прекращается, либо когда пройдено определенное количество эпох, либо когда ошибка достигнет некоторого определенного уровня малости, либо когда ошибка перестанет уменьшаться (пользователь может сам выбрать нужное условие остановки).

Приведем словесное описание алгоритма.

Шаг 1. Весам сети присваиваются небольшие начальные значения.

Шаг 2. Выбирается очередная обучающая пара (X, Y) из обучающего множества; вектор X подается на вход сети.

Шаг 3. Вычисляется выход сети.



где W — вектор весов выходного нейрона, ok — вектор выходов нейронов скрытого слоя с элементами



wi обозначает вектор весов, связанных с i-м скрытым нейроном, i = 1, 2, ..., L.

Шаг 4. Вычисляется разность между требуемым (целевым, Y) и реальным (вычисленным) выходом сети.

Шаг 5. Веса сети корректируются так, чтобы минимизировать ошибку.





Шаг 6. Шаги со 2-го по 5-й повторяются для каждой пары обучающего множества до тех пор, пока ошибка на всем множестве не достигнет приемлемой величины.

Шаги 2 и 3 подобны тем, которые выполняются в уже обученной сети.

Вычисления в сети выполняются послойно. На шаге 3 каждый из выходов сети вычитается из соответствующей компоненты целевого вектора с целью получения ошибки. Эта ошибка используется на шаге 5 для коррекции весов сети.

Шаги 2 и 3 можно рассматривать как «проход вперед», так как сигнал распространяется по сети от входа к выходу. Шаги 4 и 5 составляют «обратный проход», поскольку здесь вычисляемый сигнал ошибки распространяется обратно по сети и используется для подстройки весов



Рисунок 6 –Двухслойная сеть

Рассмотренная процедура может быть легко обобщена на случай сети с произвольным количеством слоев и нейронов в каждом слое. Обратим внимание, что в данной процедуре сначала происходит коррекция весов для выходного нейрона, а затем — для нейронов скрытого слоя, т.е. от конца сети к ее началу. Отсюда и название — обратное распространение ошибки. Ввиду использования для обозначений греческой буквы S, эту процедуру обучения называют еще иногда обобщенным дельта — правилом.

Дадим изложенному геометрическую интерпретацию.

В алгоритме обратного распространения вычисляется вектор градиента поверхности ошибок. Этот вектор указывает направление кратчайшего спуска по поверхности из данной точки, поэтому, если мы «немного» продвинемся по нему, ошибка уменьшится. Последовательность таких шагов (замедляющаяся по мере приближения к дну) в конце концов приведет к минимуму того или иного типа. Определенную трудность здесь представляет вопрос о том, какую нужно брать длину шагов (что определяется величиной коэффициента скорости обучения η).

При большой длине шага сходимость будет более быстрой, но имеется опасность перепрыгнуть через решение или (если поверхность ошибок имеет особо вычурную форму) уйти в неправильном направлении. Классическим примером такого явления при обучении нейронной сети является ситуация, когда алгоритм очень медленно продвигается по узкому оврагу с крутыми склонами, прыгая с одной его стороны на другую. Напротив, при маленьком шаге, вероятно, будет схвачено верное направление, однако при этом потребуется очень много итераций. На практике величина шага берется пропорциональной крутизне склона (так что алгоритм замедляет ход вблизи минимума) с некоторой константой (η), которая, как отмечалось, называется коэффициентом скорости обучения. Правильный выбор скорости обучения зависит от конкретной задачи и обычно осуществляется опытным путем; эта константа может также зависеть от времени, уменьшаясь по мере продвижения алгоритма.

Обычно этот алгоритм видоизменяется таким образом, чтобы включать слагаемое импульса (или инерции). Этот член способствует продвижению в фиксированном направлении, поэтому если было сделано несколько шагов в одном и том же направлении, то алгоритм «увеличивает скорость», что (иногда) позволяет избежать локального минимума, а также быстрее проходить плоские участки.

Таким образом, алгоритм действует итеративно, и его шаги принято называть эпохами. На каждой эпохе на вход сети поочередно подаются все обучающие наблюдения, выходные значения сети сравниваются с целевыми значениями и вычисляется ошибка. Значение ошибки, а также градиента поверхности ошибок используется для корректировки весов, после чего все действия повторяются. Начальная конфигурация сети выбирается случайным образом, и процесс обучения прекращается, либо когда пройдено определенное количество эпох, либо когда ошибка достигнет некоторого определенного уровня малости, либо когда ошибка перестанет уменьшаться (пользователь может сам выбрать нужное условие остановки).

Классический метод обратного распространения относится к алгоритмам с линейной сходимостью и известными недостатками его являются: невысокая скорость сходимости (большое число требуемых итераций для достижения минимума функции ошибки), возможность сходиться не к глобальному, а к локальным решениям (локальным минимумам отмеченной функции), возможность паралича сети (при котором большинство нейронов функционирует при очень больших значениях аргумента функций активации, т.е. на ее пологом участке; поскольку ошибка пропорциональна производной, которая на данных участках мала, то процесс обучения практически замирает).

Для устранения этих недостатков были предложены много-численные модификации алгоритма обратного распространения, которые связаны с использованием различных функций ошибки, различных процедур определения направления и величины шага и т. п.

Программируемая НС, предназначена для распознавания образа нуля и единицы.











    продолжение
--PAGE_BREAK--3ГЕНЕТИЧЕСКИЙ АЛГОРИТМ


Генетический алгоритм (англ. genetic algorithm) — это эвристический алгоритм поиска, используемый для решения задач оптимизации и моделирования путем последовательного подбора, комбинирования и вариации искомых параметров с использованием механизмов, напоминающих биологическую эволюцию. Является разновидностью эволюционных вычислений (англ. evolutionary computation). Отличительной особенностью генетического алгоритма является акцент на использование оператора «скрещивания», который производит операцию рекомбинации решений-кандидатов, роль которой аналогична роли скрещивания в живой природе. «Отцом-основателем» генетических алгоритмов считается Джон Холланд (англ. John Holland), книга которого «Адаптация в естественных и искусственных системах» (англ. Adaptation in Natural and Artificial Systems) является основополагающим трудом в этой области исследований.

Генетические алгоритмы являются разновидностью методов поиска с элементами случайности и имеют цель нахождение лучшего решения по сравнению с имеющимся, а не оптимальным решением задачи. Это связано с тем, что для сложной системы часто требуется найти хоть какое-нибудь удовлетворительное решение, а проблема достижения оптимума отходит на второй план. При этом другие методы, ориентированные на поиск именно оптимального решения, вследствие чрезвычайной сложности задачи становятся вообще неприменимыми. В этом кроется причина появления, развития и роста популярности генетических алгоритмов. Хотя, как и всякий другой метод поиска, этот подход не является оптимальным методом решения любых задач. Дополнительным свойством этих алгоритмов является невмешательство человека в развивающийся процесс поиска. Человек может влиять на него лишь опосредованно, задавая определенные параметры.

Преимущества генетических алгоритмов становятся еще более прозрачными, если рассмотреть основные их отличия от традиционных методов:

1) Генетические алгоритмы работают с кодами, в которых представлен набор параметров, напрямую зависящих от аргументов целевой функции. Причем интерпретация этих кодов происходит только перед началом работы алгоритма и после завершения его работы для получения результата. В процессе работы манипуляции с кодами происходят совершенно независимо от их интерпретации, код рассматривается просто как битовая строка.

2) Для поиска генетический алгоритм использует несколько точек поискового пространства одновременно, а не переходит от точки к точке, как это делается в традиционных методах. Это позволяет преодолеть один из их недостатков — опасность попадания в локальный экстремум целевой функции, если она не является унимодальной, то есть имеет несколько таких экстремумов. Использование нескольких точек одновременно значительно снижает такую возможность.

3) Генетические алгоритмы в процессе работы не используют никакой дополнительной информации, что повышает скорость работы. Единственной используемой информацией может быть область допустимых значений параметров и целевой функции в произвольной точке.

4) Генетический алгоритм использует как вероятностные правила для порождения новых точек анализа, так и детерминированные правила для перехода от одних точек к другим. Одновременное использование элементов случайности и детерминированности дает значительно больший эффект, чем раздельное.

Прежде чем рассматривать непосредственно работу генетического алгоритма, введем ряд терминов, которые широко используются в данной области.

Генетический алгоритм работает с кодами безотносительно их смысловой интерпретации. Поэтому сам код и его структура описываются понятием генотип, а его интерпретация, с точки зрения решаемой задачи, понятием — фенотип. Каждый код представляет, по сути, точку пространства поиска. С целью максимально приблизиться к биологическим терминам, экземпляр кода называют хромосомой, особью или индивидуумом. Далее для обозначения строки кода мы будем в основном использовать термин «особь».

На каждом шаге работы генетический алгоритм использует несколько точек поиска одновременно. Совокупность этих точек является набором осо¬бей, который называется популяцией. Количество особей в популяции назы¬вают размером популяции. На каждом шаге работы генетический алгоритм обновляет популяцию путем создания новых особей и уничтожения ненужных. Чтобы отличать популяции на каждом из шагов и сами эти шаги, их называют поколениями и обычно идентифицируют по номеру. Например, популяция, полученная из исходной популяции после первого шага работы алгоритма, будет первым поколением, после следующего шага — вторым и т. д.

В процессе работы алгоритма генерация новых особей происходит на основе моделирования процесса размножения. При этом, естественно, порождающие особи называются родителями, а порожденные — потомками. Родительская пара, как правило, порождает пару потомков. Непосредственная генерация новых кодовых строк из двух выбранных происходит за счет работы оператора скрещивания, который также называют кроссинговером (от англ., crossover). При порождении новой популяции оператор скрещивания может применяться не ко всем парам родителей. Часть этих пар может переходить в популяцию следующего поколения непосредственно. Насколько часто будет возникать такая ситуация, зависит от значения вероятности применения оператора скрещивания, которая является одним из параметров генетического алгоритма.

Моделирование процесса мутации новых особей осуществляется за счет работы оператора мутации. Основным параметром оператора мутации также является вероятность мутации.

Поскольку размер популяции фиксирован, то порождение потомков должно сопровождаться уничтожением других особей. Выбор пар родителей из популяции для порождения потомков производит оператор отбора, а выбор особей для уничтожения — оператор редукции. Основным параметром их работы является, как правило, качество особи, которое определяется значением целевой функции в точке пространства поиска, описываемой этой особью.

Таким образом, можно перечислить основные понятия и термины, используемые в области генетических алгоритмов:

-          генотип и фенотип;

-          особь и качество особи;

-          популяция и размер популяции;

-          поколение;

-          родители и потомки.

К характеристикам генетического алгоритма относятся:

-          размер популяции;

-          оператор скрещивания и вероятность его использования;

-          оператор мутации и вероятность мутации;

-          оператор отбора;

-          оператор редукции;

-          критерий останова.

Операторы отбора, скрещивания, мутации и редукции называют еще генетическими операторами.

Критерием останова работы генетического алгоритма может быть одно из трех событий:

1)        Сформировано заданное пользователем число поколений.

2)        Популяция достигла заданного пользователем качества (например, значение качества всех особей превысило заданный порог).

3)        Достигнут некоторый уровень сходимости. То есть особи в популяции стали настолько подобными, что дальнейшее их улучшение происходит чрезвычайно медленно.

Характеристики генетического алгоритма выбираются таким образом, чтобы обеспечить малое время работы, с одной стороны, и поиск как можно лучшего решения, с другой.

Последовательность работы генетического алгоритма

Рассмотрим теперь непосредственно работу генетического алгоритма. Общая схема его работы представлена на рисунке 7.
















    продолжение
--PAGE_BREAK--


Рисунок 7 – Схема работы генетического алгоритма
Программируемый генетический алгоритм используется для поиска минимального значения функции ошибки нейрона.
Оператор скрещивания призван моделировать природный процесс на­следования, то есть обеспечивать передачу свойств родителей потомкам.

Рассмотрим простейший оператор скрещивания. Он выполняется в два этапа. Пусть особь представляет собой строку из т элементов. На первом этапе равновероятно выбирается натуральное число k
от 1 до т-1. Это число называется точкой разбиения. В соответствии с ним обе исходные строки разбиваются на две подстроки. На втором этапе строки обменива­ются своими подстроками, лежащими после точки разбиения, то есть эле­ментами с k+1-го по m-й. Так получаются две новые строки, которые на­следовали частично свойства обоих родителей. Этот процесс проиллюст­рирован ниже.

Вероятность применения оператора скрещивания обычно выбирается достаточно большой, в пределах от 0,9 до 1, чтобы обеспечить постоянное появление новых особей, расширяющих пространство поиска. При значе­нии вероятности меньше 1 часто используют элитизм. Это особая страте­гия, которая предполагает переход в популяцию следующего поколения элиты, то есть лучших особей текущей популяции, без каких-либо измене­ний. Применение элитизма способствует сохранению общего качества по­пуляции на высоком уровне. При этом элитные особи участвуют еще и в процессе отбора родителей для последующего скрещивания. Количество элитных особей определяется обычно по формуле:

К =   (1   -   Р)   *  N
,       (7.2)

где К- количество элитных особей, Р — вероятность применения операто­ра скрещивания, N — размер популяции.

В случае использования элитизма все выбранные родительские пары подвергаются скрещиванию, несмотря на то, что вероятность применения оператора скрещивания меньше 1. Это позволяет сохранять размер попу­ляции постоянным.

Оператор мутации служит для моделирования природного процесса мутации. Его применение в генетических алгоритмах обусловлено следу­ющими соображениями. Исходная популяция, какой бы большой она ни была, охватывает ограниченную область пространства поиска. Оператор скрещивания, безусловно, расширяет эту область, но все же до определен­ной степени, поскольку использует ограниченный набор значений, задан­ный исходной популяцией. Внесение случайных изменений в особи позволяет преодолеть это ограничение и иногда значительно сократить время поиска и улучшить качество результата.

Как правило, вероятность мутации, в отличие от вероятности скрещи­вания, выбирается достаточно малой. Сам процесс мутации заключается в замене одного из элементов строки на другое значение. Это может быть перестановка двух элементов в.строке, замена элемента строки значением элемента из другой строки, в случае битовой строки может применяться инверсия одного из битов и т. д.

В процессе работы алгоритма все указанные выше операторы приме­няются многократно и ведут к постепенному изменению исходной популя­ции. Поскольку операторы отбора, скрещивания, мутации и редукции по своей сути направлены на улучшение каждой отдельной особи, то резуль­татом их работы является постепенное улучшение популяции в целом. В этом и заключается основной смысл работы генетического алгоритма — улучшить популяцию решений по сравнению с исходной.

После завершения работы генетического алгоритма из конечной попу­ляции выбирается та особь, которая дает экстремальное (максимальное или минимальное) значение целевой функции и является, таким образом, результатом работы генетического алгоритма. За счет того, что конечная популяция лучше исходной, полученный результат представляет собой улучшенное решение.


    продолжение
--PAGE_BREAK--4 ЭФФЕКТИВНОСТЬ ГЕНЕТИЧЕСКИХ АЛГОРИТМОВ И СРЕДСТВА ЕЕ ПОВЫШЕНИЯ 4.1 Показатели эффективности генетических алгоритмов
Эффективность генетического алгоритма при решении конкретной за­дачи зависит от многих факторов, и в частности от таких, как генетичес­кие операторы и выбор соответствующих значений параметров, а также способа представления задачи на хромосоме. Оптимизация этих факторов приводит к повышению скорости и устойчивости поиска, что существенно для применения генетических алгоритмов.

Скорость генетического алгоритма оценивается временем, необходи­мым для выполнения заданного пользователем числа итераций. Если кри­терием останова является качество популяции или ее сходимость, то скорость оценивается временем достижения генетическим алгоритмом одно­го из этих событий.

Устойчивость поиска оценивается степенью устойчивости алгоритма к попаданию в точки локальных экстремумов и способностью постоянно увеличивать качество популяции от поколения к поколению.

Два этих фактора — скорость и устойчивость — и определяют эффектив­ность генетического алгоритма для решения каждой конкретной задачи.


4.2 Скорость работы генетических алгоритмов
Основным способом повышения скорости работы генетических алго­ритмов является распараллеливание. Причем этот процесс можно рассмат­ривать с двух позиций. Распараллеливание может осуществляться на уров­не организации работы генетического алгоритма и на уровне его непос­редственной реализации на вычислительной машине.

Во втором случае используется следующая особенность генетических алго­ритмов. В процессе работы многократно приходится вычислять значения целе­вой функции для каждой особи, осуществлять преобразования оператора скре­щивания и мутации для нескольких пар родителей и т. д. Все эти процессы мо­гут быть реализованы одновременно на нескольких параллельных системах или процессорах, что пропорционально повысит скорость работы алгоритма.

В первом же случае применяется структурирование популяции реше­ний на основе одного из двух подходов:

1)Популяция разделяется на несколько различных подпопуляций, которые впоследствии развиваются параллельно и незави­симо. То есть скрещивание происходит только между членами од­ного демоса. На каком-то этапе работы происходит обмен частью особей между подпопуляциями на основе случайной выборки. И так может продолжаться до завершения работы алгоритма. Дан­ный подход получил название концепции островов.

2)Для каждой особи устанавливается ее пространственное положе­ние в популяции. Скрещивание в процессе работы происходит между ближайшими особями. Такой подход получил название концепции скрещивания в локальной области.


Оба подхода, очевидно, также могут эффективно реализовываться на параллельных вычислительных машинах. Кроме того, практика показала, что структурирование популяции приводит к повышению эффективности генетического алгоритма даже при использовании традиционных вычис­лительных средств.

Еще одним средством повышения скорости работы является кластери­зация. Суть ее состоит, как правило, в двухэтапной работе генетического алгоритма. На первом этапе генетический алгоритм работает традицион­ным образом с целью получения популяции более «хороших» решений. После завершения работы алгоритма из итоговой популяции выбираются группы наиболее близких решений. Эти группы в качестве единого целого образуют исходную популяцию для работы генетического алгоритма на втором этапе. Размер такой популяции будет, естественно, значительно меньше, и, соответственно, алгоритм будет далее осуществлять поиск зна-чительнд^эыстрее. Сужения пространства поиска в данном случае не про­исходит, поскольку применяется исключение из рассмотрения только ряда очень похожих особей, существенно не влияющих на получение новых ви­дов решений.


4.3 Устойчивость работы генетических алгоритмов
Устойчивость или способность генетического алгоритма эффективно формировать лучшие решения зависит в основном от принципов работы генетических операторов (операторов отбора, скрещивания, мутации и редукции). Рассмотрим механизм этого воздействия подробнее.

Как правило, диапазон влияния можно оценить, рассматривая вырож­денные случаи генетических операторов.

Вырожденными формами операторов скрещивания являются, с одной стороны, точное копирование потомками своих родителей, а с другой, порождение потомков, в наибольшей степени отличающихся от них.

Преимуществом первого варианта является скорейшее нахождение лучшего решения, а недостатком, в свою очередь, тот факт, что алгоритм не сможет найти решения лучше, чем уже содержится в исходной популя­ции, поскольку в данном случае алгоритм не порождает принципиально новых особей, а лишь копирует уже имеющиеся. Чтобы все-таки исполь­зовать достоинства этой предельной формы операторов скрещивания в реальных генетических алгоритмах, применяют элитизм', речь о котором шла выше.

Во втором случае алгоритм рассматривает наибольшее число различ­ных особей, расширяя область поиска, что, естественно, приводит к полу­чению более качественного результата. Недостатком в данном случае яв­ляется значительное замедление поиска. Одной из причин этого, в частно­сти, является то, что потомки, значительно отличаясь от родителей, не на­следуют их полезных свойств.

В качестве реальных операторов скрещивания используются промежу­точные варианты. В частности, родительское воспроизводство с мутацией и родительское воспроизводство с рекомбинацией и мутацией. Родительс­кое воспроизводство означает копирование строк родительских особей в

строки потомков. В первом случае после этого потомки подвергаются воз­действию, мутации. Во втором случае после копирования особи-потомки обмениваются подстроками, этот процесс называется рекомбинацией и был описан в предыдущих параграфах. После рекомбинации п髒томки также подвергаются воздействию мутации. Последний подход получил наиболь­шее распространение в области генетических алгоритмов.

Наиболее распространенными при этом являются одноточечный, двух­точечный и равномерный операторы скрещивания. Свои названия они получили от принципа разбиения кодовой строки на подстроки. Строка может соответственно разбиваться на подстроки в одном или двух местах. Или строки могут образовывать особи-потомки, чередуя свои элементы.

Основным параметром оператора мутации является вероятность его воздействия. Обычно она выбирается достаточно малой. Чтобы, с одной стороны, обеспечивать расширение области поиска, а с другой, не привес­ти к чересчур серьезным изменениям потомков, нарушающим наследова­ние полезных параметров родителей. Сама же суть воздействия мутации обычно определяется фенотипом и на эффективность алгоритма особого воздействия не оказывает.

Существует также дополнительная стратегия расширения поискового пространства, называемая стратегией разнообразия. Если генетический алгоритм использует данную стратегию, то каждый порожденный пото­мок подвергается незначительному случайному изменению. Отличие раз­нообразия и мутации в том, что оператор мутации вносит в хромосому достаточно значительные изменения, а оператор разнообразия — наобо­рот. В этом заключается основная причина стопроцентной вероятности применения разнообразия. Ведь если часто вносить в хромосомы потом­ков незначительные изменения, то они могут быть полезны с точки зрения как расширения пространства поиска, так и наследования полезных свойств. Отметим, что стратегия разнообразия применяется далеко не во всех генетических алгоритмах, поскольку является лишь средством повы­шения эффективности.

Еще одним важнейшим фактором, влияющим на эффективность гене­тического алгоритма, является оператор отбора. Слепое следование прин­ципу «выживает сильнейший» может привести к сужению области поиска и попаданию найденного решения в область локального экстремума целе­вой функции. С другой стороны, слишком слабый оператор отбора может привести к замедлению роста качества популяции, а значит, и к замедле­нию поиска. Кроме того, популяция при этом может не только не улуч­шаться, но и ухудшаться. Самыми распространенными операторами от­бора родителей являются:

— случайный равновероятный отбор;

— рангово-пропорциональный отбор;

— отбор пропорционально значению целевой функции.

Виды операторов редукции особей с целью сохранения размера попу­ляции практически совпадают с видами операторов отбора родителей. Среди них можно перечислить:

— случайное равновероятное удаление;

— удаление К наихудших;

— удаление, обратно пропорциональное значению целевой функции.

Поскольку процедуры отбора родителей и редукции разнесены по дей­
ствию во времени и имеют разный смысл, сейчас ведутся активные иссле­
дования с целью выяснения, как влияет согласованность этих процедур на
эффективность генетического алгоритма.                                    /

Одним из параметров, также влияющих на устойчивость и скорость поиска, является размер популяции, с которой работает алгоритм. Клас­сические генетические алгоритмы предполагают, что размер популяции должен быть фиксированным. Такие алгоритмы называют алгоритмами стационарного состояния. В этом случае оптимальным считается размер 21о§2(и), где п — количество всех возможных решений задачи.

Однако практика показала, что иногда бывает полезно варьировать размер популяции в определенных пределах. Подобные алгоритмы полу­чили название поколенческих [82]. В данном случае после очередного по­рождения потомков усечения популяции не происходит. Таким образом, на протяжении нескольких итераций размер популяции может расти, пока не достигнет определенного порога, После чего популяция усекается до своего исходного размера. Такой подход способствует расширению обла­сти поиска, но вместе с тем не ведет к значительному снижению скорости, поскольку усечение популяции, хотя и реже, но все же происходит.


    продолжение
--PAGE_BREAK--4.4 Направления развития генетических алгоритмов
Практическая деятельность человека ставит перед наукой все новые исследовательские задачи祥Область применения генетических алгоритмов постоянно расширяется, что требует их совершенствования и исследова­ния. Перечислим несколько новых задач, которые могут решаться с ис­пользованием генетических алгоритмов, и связанные с ними направления исследований в этой области:

1) разработка новых методов тестирования генетических алгоритмов;
разработка адаптивных генетических алгоритмов;

2)     расширение круга решаемых с использованием генетических алго­ритмов задач;

3)     максимальное приближение генетических алгоритмов к естествен­ному эволюционному процессу.

До недавнего времени в качестве критерия качества большинства кон­кретных генетических алгоритмов использовалась эффективность решения задачи получения битового вектора с максимальным числом единичных разрядов. Чем быстрее алгоритм находил наилучшее решение, тем он счи­тался эффективнее. Сейчас эта задача уже не является объективным сред­ством тестирования алгоритмов, что свидетельствует об их бурном разви­тии не только с точки зрения применимости к тем или иным классам задач, но и с точки зрения их внутреннего построения и принципов работы.

В области исследований, направленных на повышение эффективности генетических алгоритмов, большое значение приобрели идеи создания адап­тивных генетических алгоритмов, которые могут изменять свои парамет­ры в процессе работы. Они стали продолжением развития идеи поколенческих алгоритмов, которые в процессе работы изменяют размер популя­ции. Адаптивные алгоритмы способны изменять не только этот параметр, но и суть генетических операторов, вероятность мутации и даже генотип алгоритма. Как правило, данные изменения происходят путем выбора па­раметров из нескольких вариантов, определенных перед началом работы алгоритма.

Идея адаптивных генетических алгоритмов получила свое воплощение в концепции, представляющей многоуровневые генетические ал­горитмы. Нижний уровень такого алгоритма непосредственно выполняет задачу улучшения популяции решений. Верхние уровни представляют со­бой генетические алгоритмы, решающие оптимизационную задачу по улучшению параметров алгоритма нижнего уровня. При этом в качестве целе­вой функции используется обычно скорость работы алгоритма нижнего уровня и скорость улучшения им популяции от поколения к поколению.

Традиционные оптимизационные задачи имеют целевую функцию с фиксированной областью значений, называемой также ландшафтом. В последнее время потребовалось решение задач, в которых ландшафт со временем может изменяться. То есть целевая функция при одних и тех же значениях аргументов в разные моменты времени может принимать раз­личные значения. Создание алгоритмов, способных работать с такими за­дачами, является сейчас одной из актуальных и одновременно сложных проблем в области генетических алгоритмов.

До сих пор продолжается дискуссия между сторонниками универсальных и проблемно-ориентированных представлений задач при использовании эволюционных вычислений. Можно говорить, что в этом вопросе чаша весов, склоняется в сторону универсальных, в которых можно осуществлять изменения на уровне генотипа значительно проще и эффективнее, чем на уровне фенотипа.

Перспективным направлением развития является добавление к генетическим операторам ламарковских операторов, которые позволяют вводить в рассмотрение признаки, приобретенные особью не в результате наследо­вания, а в течение своего жизненного цикла. Это еще более приближает модель генетических алгоритмов к природным процессам и, по мнению ученых, способно повысить их эффективность.

Идея приближения генетических алгоритмов к реальному эволюцион­ному процессу нашла свое отражение и в предложениях ввести в рассмотрение такие понятия, как вид и пол, учитывать взаимодействие особей в популяции в процессе «жизни», причем особей как одного вида, так и различных. Это позволит моделировать процессы сотрудничества, отноше­ний хозяев и паразитов и т. д.

Помимо этих новых течений в области исследования генетических ал­горитмов ведутся работы и в традиционных направлениях. Создаются все новые разновидности операторов отбора, скрещивания и мутации. Конструируются адаптивные алгоритмы, совершенствуются методы распараллеливания вычислений и структурирования популяций. Одновременно разрабатываются методики оценки эффективности и тестирования гене­тических алгоритмов.

Таким образом, генетические алгоритмы представляют собой одну из важных и активно развивающихся парадигм обширной области алгорит­мов поиска оптимальных решений. И в последнее время, с развитием ме­тодов компьютерной поддержки принятия решений, они приобретают все большее значение.


 ЗАКЛЮЧЕНИЕ


 В ходе данной работы была построена модель нейрона, нейронной сети. Для обучения сети был использовании алгоритм обратного распространения ошибки, являющийся наиболее распространённым алгоритмом при обучении нейронных сетей. Для обучения сети был применен генетический алгоритм. Программирование и обучение нейронных сетей очень интересное и увлекательное занятие. Роль генетических алгоритмом и нейронных сетей в настоящее время очень велика, поэтому знание и умение программировать их необходимо знать.



СПИСОК ЛИТЕРАТУРЫ


1) Курс лекций по дисциплине «Интеллектуальные ИС», Гурьев А.Т., 2008

2) Лабораторный практикум по дисциплине «Интеллектуальные ИС», 2008г.

3) Методические пособия по дисциплине «Интеллектуальные ИС», 2008г.

4) Нейрокомпьютерная техника, Ф.Уоссермен, 1992.

5) Нейронные сети: основные положения, С.Короткий, 2008г.



    продолжение
--PAGE_BREAK--ПРИЛОЖЕНИЕ
(обязательное)
using System;

using System.Collections.Generic;

using System.Text;

using System.Collections;

using System.IO;

namespace neuro

{

                           struct SandY//резултат работы нейрона

                           {

                                                     public double S;//сумма

                                                     public double Y;//значение активизационной функции

                           }

                           class Program

                           {

                                                     static Random ver = new Random();

                                                     static int s = 0;//длярандомайза
                                                     static int[] NMinIndexesValue(int N, double[] mass)//ВозвращаетN индексовдлянаименьшихзначенийmass

                                                     {

                                                                                                   int[] resultMin = new int[N];

                                                                                                   double[] arr = new double[mass.Length];

                                                                                                   int[] ind = new int[mass.Length];

                                                                                                   for (int i = 0; i

                                                                                                   {

                                                                                                              arr[i] = mass[i];

                                                                                                              ind[i] = i;

                                                                                                   }

                                                                                                   double x;

                                                                                                   int x1;

                                                                                                   for (int i = 0; i

                                                                                                   {

                                                                                                              for (int j = mass.Length — 1; j > i; j--)

                                                                                                              {

                                                                                                                             if (arr[j — 1] > arr[j])

                                                                                                                             {

                                                                                                                                             x = arr[j — 1];

                                                                                                                                             x1 = ind[j — 1];

                                                                                                                                             arr[j — 1] = arr[j];

                                                                                                                                             ind[j — 1] = ind[j];

                                                                                                                                             arr[j] = x;

                                                                                                                                             ind[j] = x1;

                                                                                                                             }

                                                                                                              }

                                                                                                   }

                                                                                                   for (int n = 0; n

                                                                                                   {

                                                                                                              resultMin[n] = ind[n];

                                                                                                   }

                                                                                                   return resultMin;

                                                     }

                                                     static void mutation(double[][] W)// оператормутации

                                                     {

                                                                                                   Random rnd = new Random(s);

                                                                                                   int rnd1 = rnd.Next(0, 5);

                                                                                                   int rnd2 = rnd.Next(0, 5);

                                                                                                  

                                                                                                   double[] temp = new double[W[rnd1].Length];

                                                                                                   double[] temp2 = new double[W.Length];

                                                                                                   //меняет местами случайную строку и случайный столбец — и все портит =)

                                                                                                   for (int j = 0; j

                                                                                                   {

                                                                                                              temp[j] = W[rnd1][j];

                                                                                                   }

                                                                                                   for (int i = 0; i

                                                                                                   {

                                                                                                              temp2[i] = W[i][rnd2];

                                                                                                              W[i][rnd2] = temp[i];

                                                                                                   }

                                                                                                   for (int j = 0; j

                                                                                                   {

                                                                                                              W[rnd1][j] = temp2[j];

                                                                                                   }

                                                                                                   if (s > 500)

                                                                                                              s = 0;

                                                                                                   else

                                                                                                              s++;

                                                     }

                                                     static double[][][] Screshivanie(double[][] W1, double[][] W2)//операторскрещивания, возвращаетдвухпотомков

                                                     {

                                                                                                   Random rnd = new Random(s);

                                                                                                   int rnd1 = rnd.Next(0,5);

                                                    

                                                                                                   double[] temp = new double[W1[0].Length];

                                                                                                   double[][][] resultW = new double[2][][];//длядвухпотомков

                                                                                                   double[][][] resultW_temp = new double[2][][];

                                                                                                   resultW[0] = new double[W1.Length][];

                                                                                                   resultW[1] = new double[W1.Length][];

                                                                                                   resultW_temp[0] = new double[W1.Length][];

                                                                                                   resultW_temp[1] = new double[W1.Length][];

                                                                                                   int rnd2 = rnd.Next(0, 5);

                                                                                                   for (int i = 0; i

                                                                                                   {        

                                                                                                              resultW_temp[0][i] = new double[W1[i].Length];

                                                                                                              resultW_temp[1][i] = new double[W1[i].Length];

                                                                                                              resultW[0][i] = new double[W1[i].Length];

                                                                                                              resultW[1][i] = new double[W1[i].Length];

                                                                                                              for (int j = 0; j

                                                                                                              {

                                                                                                                             resultW_temp[0][i][j] = W1[i][j];

                                                                                                                             resultW_temp[1][i][j] = W2[i][j];

                                                                                                                             resultW[0][i][j] = W1[i][j];

                                                                                                                             resultW[1][i][j] = W2[i][j];

                                                                                                              }

                                                                                                   }

                                                                                                  

                                                                                                   //меяет одну случайных строки между двумя массивами

                                                                                                  

                                                                                                   //проверяем не равны ли строки у родителей

                                                                                                   bool[] str1 = new bool[resultW_temp[0].Length];

                                                                                                   bool[] str2 = new bool[resultW_temp[0].Length];

                                                                                                   for (int i = 0; i

                                                                                                   {

                                                                                                              str1[i] = true;

                                                                                                              str2[i] = true;

                                                                                                   }

                                                                                                   for (int i = 0; i

                                                                                                   {

                                                                                                              for (int j = 0; j

                                                                                                              {

                                                                                                                             if (resultW[0][i][j] != resultW_temp[1][i][j])

                                                                                                                             {

                                                                                                                                             str1[i] = false;

                                                                                                                                             break;

                                                                                                                             }

                                                                                                              }

                                                                                                   }

                                                                                                   for (int i = 0; i

                                                                                                   {

                                                                                                              for (int j = 0; j

                                                                                                              {

                                                                                                                             if (resultW[0][i][j] != resultW_temp[1][i][j])

                                                                                                                             {

                                                                                                                                             str2[i] = false;

                                                                                                                                             break;

                                                                                                                             }

                                                                                                              }

                                                                                                   }

                                                                                                   if (!str1[rnd1])//если случайные строки не равны

                                                                                                   {

                                                                                                              for (int j = 0; j

                                                                                                              {

                                                                                                                             resultW[0][rnd1][j] = resultW_temp[1][rnd1][j];

                                                                                                                             resultW[1][rnd1][j] = resultW_temp[0][rnd1][j];

                                                                                                              }

                                                                                                   }

                                                                                                   else

                                                                                                   {

                                                                                                              //выбираем первую не равную пару строк

                                                                                                              for (int i = 0; i

                                                                                                              {

                                                                                                                             if (!str1[i])

    продолжение
--PAGE_BREAK--                                                                                                                             {

                                                                                                                                             for (int j = 0; j

                                                                                                                                             {

                                                                                                                                                             resultW[0][i][j] = resultW_temp[1][i][j];

                                                                                                                                                             resultW[1][i][j] = resultW_temp[0][i][j];

                                                                                                                                             }

                                                                                                                                             break;

                                                                                                                             }

                                                                                                                             else//если таких пар не найдено то меняем случайные строки

                                                                                                                             {

                                                                                                                                             for (int j = 0; j

                                                                                                                                             {

                                                                                                                                                             resultW[0][rnd1][j] = rnd.NextDouble() * 0.1;

                                                                                                                                                             resultW[1][rnd1][j] = rnd.NextDouble() * 0.1;

                                                                                                                                             }

                                                                                                                             }

                                                                                                              }

                                                                                                   }

                                                                                                   if (s > 500)

                                                                                                              s = 0;

                                                                                                   else

                                                                                                              s++;

                                                                                                   return resultW;

                                                     }

                                                     static SandY neuro(double[][] X, double[][] W)//типанейрон

                                                     {

                                                                                                   SandY result;

                                                                                                   double alfa = 1;//коэфицентсигмоидности

                                                                                                   result.S = 0;//результирующаясумма

                                                                                                   for (int i = 0; i

                                                                                                   {

                                                                                                              for (int j = 0; j

                                                                                                              {

                                                                                                                             result.S += X[i][j] * W[i][j];//комбинаторим

                                                                                                              }

                                                                                                   }

                                                                                                   result.Y = 1 / (1 + Math.Exp(alfa * result.S));//функцияактивизации

                                                                                                   return result;

                                                     }

                                                     static void Main(string[] args)

                                                     {

                                                                                                   double[][] input_x0 = new double[5][];

                                                                                                   double[][] input_x1 = new double[5][];

                                                                                                   double[][][] weight = new double[2][][];//весадлядвухнейрон
                                                                                                   for (int i = 0; i

                                                                                                   {

                                                                                                              input_x0[i] = new double[5];

                                                                                                              input_x1[i] = new double[5];

                                                                                                   }

                                                                                                   int seed = 0;

                                                                                                   for (int n = 0; n

                                                                                                   {

                                                                                                              weight[n] = new double[5][];

                                                                                                              for (int i = 0; i

                                                                                                              {

                                                                                                                             weight[n][i] = new double[5];

                                                                                                                             for (int j = 0; j

                                                                                                                             {

                                                                                                                                             weight[n][i][j] = new Random(seed).NextDouble()*0.1;

                                                                                                                                             seed++;

                                                                                                                             }

                                                                                                              }

                                                                                                   }

                                                                                                              //тестовая матрица для 0

                                                                                                   input_x0[0][0] = 0;

                                                                                                   input_x0[0][1] = 1;

                                                                                                   input_x0[0][2] = 1;

                                                                                                   input_x0[0][3] = 1;

                                                                                                   input_x0[0][4] = 0;
                                                                                                   input_x0[1][0] = 1;

                                                                                                   input_x0[1][1] = 0;

                                                                                                   input_x0[1][2] = 0;

                                                                                                   input_x0[1][3] = 0;

                                                                                                   input_x0[1][4] = 1;
                                                                                                   input_x0[2][0] = 1;

                                                                                                   input_x0[2][1] = 0;

                                                                                                   input_x0[2][2] = 0;

                                                                                                   input_x0[2][3] = 0;

                                                                                                   input_x0[2][4] = 1;
                                                                                                   input_x0[3][0] = 1;

                                                                                                   input_x0[3][1] = 0;

                                                                                                   input_x0[3][2] = 0;

                                                                                                   input_x0[3][3] = 0;

                                                                                                   input_x0[3][4] = 1;
                                                                                                   input_x0[4][0] = 0;

                                                                                                   input_x0[4][1] = 1;

                                                                                                   input_x0[4][2] = 1;

                                                                                                   input_x0[4][3] = 1;

                                                                                                   input_x0[4][4] = 0;
                                                                                                   //тестовая матрица для 1

                                                                                                   input_x1[0][0] = 0;

                                                                                                   input_x1[0][1] = 0;

                                                                                                   input_x1[0][2] = 1;

                                                                                                   input_x1[0][3] = 0;

                                                                                                   input_x1[0][4] = 0;
                                                                                                   input_x1[1][0] = 0;

                                                                                                   input_x1[1][1] = 1;

                                                                                                   input_x1[1][2] = 1;

                                                                                                   input_x1[1][3] = 0;

                                                                                                   input_x1[1][4] = 0;
                                                                                                   input_x1[2][0] = 0;

                                                                                                   input_x1[2][1] = 0;

                                                                                                   input_x1[2][2] = 1;

                                                                                                   input_x1[2][3] = 0;

                                                                                                   input_x1[2][4] = 0;
                                                                                                   input_x1[3][0] = 0;

                                                                                                   input_x1[3][1] = 0;

                                                                                                   input_x1[3][2] = 1;

                                                                                                   input_x1[3][3] = 0;

                                                                                                   input_x1[3][4] = 0;
                                                                                                   input_x1[4][0] = 0;

                                                                                                   input_x1[4][1] = 0;

                                                                                                   input_x1[4][2] = 1;

                                                                                                   input_x1[4][3] = 0;

                                                                                                   input_x1[4][4] = 0;
                                                                                                   double nu = 0.01;//скорость обучения, которая на самом деле никакая ни скорость а шаг изменения веса

                                                                                                   SandY[] neuro_data = new SandY[2];

                                                                                                   double[] y = new double[2];//результат

                                                                                                   double[] d0 = new double[2];//идеальныезначениядля

                                                                                                   double[] d1 = new double[2];//идеальные значения для 1

                                                                                                   d0[0] = 1.0;

                                                                                                   d0[1] = 0.0;

                                                                                                   d1[0] = 0.0;

                                                                                                   d1[1] = 1.0;

                                                                                                   int step = 0;

                                                                                                   double[] delta = new double[2];

                                                                                                   /*

                                                                                                   Console.WriteLine("=============================================");

                                                                                                   Console.WriteLine(«по алгоритму обратного распространения ошибки»);

                                                                                                   Console.WriteLine("=============================================");

                                                                                                   /////////////////////////////////////////////////

                                                                                                   //по алгоритму обратного распространения ошибки//

                                                                                                   /////////////////////////////////////////////////

                                                                                                   while(step

                                                                                                   {

                                                                                                              step++;

                                                                                                              for (int neuron = 0; neuron

                                                                                                              {

                                                                                                                             neuro_data[neuron] = neuro(input_x0, weight[neuron]);

                                                                                                                             Console.Write("Нейрон: {0} Y={1} S={2}\n\n", neuron, neuro_data[neuron].Y, neuro_data[neuron].S);

                                                                                                              }

                                                                                                                  продолжение
--PAGE_BREAK--if (Math.Abs(neuro_data[0].Y — neuro_data[1].Y) >= 0.9)

                                                                                                                             break;

                                                                                                              for (int neuron = 0; neuron

                                                                                                              {

                                                                                                                             delta[neuron] = (d0[neuron] — neuro_data[neuron].Y) * neuro_data[neuron].Y * (1 — neuro_data[neuron].Y);

                                                                                                                             for (int i = 0; i

                                                                                                                             {

                                                                                                                                             for (int j = 0; j

                                                                                                                                             {

                                                                                                                                                             weight[neuron][i][j] = weight[neuron][i][j] — nu * delta[neuron] * input_x0[i][j];

                                                                                                                                             }

                                                                                                                             }

                                                                                                              }

                                                                                                   }

                                                                                                   if (neuro_data[0].Y > neuro_data[1].Y)

                                                                                                              Console.WriteLine("Результат0");

                                                                                                   else

                                                                                                              Console.WriteLine("Результат1");

                                                                                                   */

                                                                                                   //////////////////////////////

                                                                                                   //по генетическому алгоритму//

                                                                                                   //////////////////////////////

                                                                                                   Console.WriteLine("=============================================");

                                                                                                   Console.WriteLine("=========по генетическому алгоритму==========");

                                                                                                   Console.WriteLine("=============================================");

                                                                                                   //целевая функция — это функция ошибки нейрона E(w) = 1/2*(y-d)^2

                                                                                                   // где y — реальное значение ф-ции активизации для нейрона, d — идеальное значенние

                                                                                                   int kolPopul = 8;

                                                                                                   double[][][][] weightGA = new double[2][][][];//матрицывесовдля2-хнейронов

                                                                                                   for (int n = 0; n

                                                                                                   {

                                                                                                              weightGA[n] = new double[kolPopul][][];//матрицывесовдля4-хособейкаждогонейрона

                                                                                                              seed = 0;

                                                                                                              for (int o = 0; o

                                                                                                              {

                                                                                                                             weightGA[n][o] = new double[5][];

                                                                                                                             for (int i = 0; i

                                                                                                                             {

                                                                                                                                             weightGA[n][o][i] = new double[5];

                                                                                                                                             for (int j = 0; j

                                                                                                                                             {

                                                                                                                                                             //Console.WriteLine(new Random(seed).NextDouble()*0.1);

                                                                                                                                                             weightGA[n][o][i][j] = new Random(seed).NextDouble() * 0.1;

                                                                                                                                                             seed++;

                                                                                                                                             }

                                                                                                                             }

                                                                                                              }

                                                                                                   }

                                                                                                   double[][] F = new double[2][]; // массив для хранения значений целевой функции для 4-х поколеий для двух нейронов

                                                                                                   for (int n = 0; n

                                                                                                   {

                                                                                                              F[n] = new double[kolPopul];

                                                                                                   }

                                                                                                   double[][] F_temp = new double[2][]; // массив для хранения значений целевой функции для расширенной популяции для двух нейронов

                                                                                                   for (int n = 0; n

                                                                                                   {

                                                                                                              F_temp[n] = new double[kolPopul + kolPopul];

                                                                                                   }

                                                                                                   double[][] F_potomki = new double[2][]; // массив для хранения значений целевой функции для потомков для двух нейронов

                                                                                                   for (int n = 0; n

                                                                                                   {

                                                                                                              F_potomki[n] = new double[kolPopul];

                                                                                                   }

                                                                                                   int k = 0;

                                                                                                   SandY[] neuro_dataGA = new SandY[2];

                                                                                                   while (k

                                                                                                   {

                                                                                                              Console.WriteLine("============== Поколение {0} =================", k);

                                                                                                              k++;

                                                                                                              for (int neuron = 0; neuron

                                                                                                              {

                                                                                                                            

                                                                                                                             Console.WriteLine("======== Нейрон{0} ========", neuron);

                                                                                                                             for (int n_osob = 0; n_osob

                                                                                                                             {

                                                                                                                                             neuro_dataGA[neuron] = neuro(input_x0, weightGA[neuron][n_osob]);

                                                                                                                                             F[neuron][n_osob] = (0.5*(neuro_dataGA[neuron].Y — d0[neuron]) * (neuro_dataGA[neuron].Y — d0[neuron]));//целеваяф-я

                                                                                                                                             Console.WriteLine(F[neuron][n_osob]);

                                                                                                                             }

                                                                                                                             //выбираем 4 пары особей для скрещивания

                                                                                                                             int[] bestParent = new int[4]; //четыре родителя
                                                                                                                             bestParent = NMinIndexesValue(4, F[neuron]);//находим четырех лучших родителей

                                                                                                                             

                                                                                                                             Console.WriteLine(«Особи для размножения»);

                                                                                                                             Console.WriteLine(F[neuron][bestParent[0]]);

                                                                                                                             Console.WriteLine(F[neuron][bestParent[1]]);

                                                                                                                             Console.WriteLine(F[neuron][bestParent[2]]);

                                                                                                                             Console.WriteLine(F[neuron][bestParent[3]]);

                                                                                                                             Console.WriteLine("####################");

                                                                                                                            

                                                                                                                             double[][][][] potomki = new double[4][][][];

                                                                                                                             for (int num = 0; num

                                                                                                                             {

                                                                                                                                             potomki[num] = new double[2][][];

                                                                                                                             }

                                                                                                                             //скрещиваем как-бы случайным образом родителей и плодим потомков

                                                                                                                             int vm = ver.Next(1, 4);

                                                                                                                             potomki[0] = Screshivanie(weightGA[neuron][bestParent[0]], weightGA[neuron][bestParent[vm]]);

                                                                                                                             vm = ver.Next(0, 3);

                                                                                                                             potomki[1] = Screshivanie(weightGA[neuron][bestParent[3]], weightGA[neuron][bestParent[vm]]);

                                                                                                                             vm = ver.Next(0, 4);

                                                                                                                             potomki[2] = Screshivanie(weightGA[neuron][bestParent[1]], weightGA[neuron][bestParent[vm]]);

                                                                                                                             vm = ver.Next(0, 4);

                                                                                                                             potomki[3] = Screshivanie(weightGA[neuron][bestParent[2]], weightGA[neuron][bestParent[vm]]);
                                                                                                                             vm = ver.Next(0,7);//определяет для кого из потомков случайным образом сработает мутация

                                                                                                                             if (vm == 0)

                                                                                                                             {

                                                                                                                                             mutation(potomki[0][0]);

                                                                                                                             }

                                                                                                                             if (vm == 1)

                                                                                                                             {

                                                                                                                                             mutation(potomki[0][1]);

                                                                                                                             }

                                                                                                                             if (vm == 2)

                                                                                                                             {

                                                                                                                                             mutation(potomki[1][0]);

                                                                                                                             }

                                                                                                                             if (vm == 3)

                                                                                                                             {

                                                                                                                                             mutation(potomki[1][1]);

                                                                                                                             }

                                                                                                                             if (vm == 4)

                                                                                                                             {

                                                                                                                                             mutation(potomki[2][0]);
    продолжение
--PAGE_BREAK--


Не сдавайте скачаную работу преподавателю!
Данный реферат Вы можете использовать для подготовки курсовых проектов.

Поделись с друзьями, за репост + 100 мильонов к студенческой карме :

Пишем реферат самостоятельно:
! Как писать рефераты
Практические рекомендации по написанию студенческих рефератов.
! План реферата Краткий список разделов, отражающий структура и порядок работы над будующим рефератом.
! Введение реферата Вводная часть работы, в которой отражается цель и обозначается список задач.
! Заключение реферата В заключении подводятся итоги, описывается была ли достигнута поставленная цель, каковы результаты.
! Оформление рефератов Методические рекомендации по грамотному оформлению работы по ГОСТ.

Читайте также:
Виды рефератов Какими бывают рефераты по своему назначению и структуре.

Сейчас смотрят :

Реферат Особенности формирования элементов учетной политики для учета основных средств и формирование элементов учетной политики для учета заработной платы
Реферат Last Battle Of The 20Th Centery Essay
Реферат І. В. Коровай Урок по темі: «Табличні величини та їх опис навчальною алгоритмічною мовою. Обчислення суми І добутку елементів.» у формі експрес-курсу & Урок
Реферат Munch, Edvard
Реферат My Fist Job Essay Research Paper My
Реферат Рентгеноанатомия голеностопного сустава
Реферат World War Ii 3 Essay Research Paper
Реферат Умбрийская и падуанская живопись кватроченте
Реферат Гликопин
Реферат Кредитная система РФ и особенности ее организации
Реферат Экономика СССР после Второй мировой войны
Реферат Devil And Daniel Essay Research Paper In
Реферат Corinth And Its Economy Essay Research Paper
Реферат Пищевая ценность продуктов Супы и бульоны
Реферат Этические проблемы в психологическом исследовании. Измерение концентрации внимания