Реферат по предмету "Информатика"


Психологическая интуиция искусственных нейронных сетей

--PAGE_BREAK--    продолжение
--PAGE_BREAK---              Впервые проведена работа по оптимизации структуры психодиагностических методик на основе исследования механизма психологической интуиции программных нейроимитаторов.
-              Реализована никогда ранее не применявшаяся полутораслойная структура нейронной сети, позволяющая реализовать автоматическое изменение числа нейронов в зависимости от потребностей задачи, позволяет не только исследовать, но и контролировать процесс воспитания психологической интуиции искусственных нейронных сетей.
-              Впервые применена выборочная константа Липшица для оценки необходимой для решения конкретной задачи структуры нейронной сети.
Практическая значимость
Полученные в работе результаты дают подход к раскрытию механизма интуиции нейронных сетей, проявляющейся при решении ими психодиагностических задач. Показывается также путь использования понимания механизма психологической интуиции нейросетевых экспертных систем в существенном упрощении процесса формирования диагностических моделей. Результаты представляют интерес для теории создания психодиагностических методик, позволяют рекомендовать нейронные сети для применения в данной области. Представленный в работе нестандартный для компьютерных методик интуитивный подход к психодиагностике, заключающийся в исключении построения описанной реальности, позволяет сократить и упростить работу над психодиагностическими методиками. Исследование механизма интуиции нейронных сетей при предсказании психологической совместимости в группе и парной совместимости дает важный материал для осмысления механизма данного явления. Идеология, апробированная при создании программного имитатора нейронной сети, открывает путь к оптимизации структуры искусственных нейронных сетей по принципу достаточного для данной задачи объема. Созданная для данной программы структура объектов является универсальным аппаратом для моделирования сложных функций при помощи сетей автоматов и нахождения локальных экстремумов этих функций при помощи методов безусловной оптимизации.
Положения выносимые на защиту:
-                     Для решения классической задачи психодиагностики по порождению описанной реальности с вероятностью правильного ответа около 95% может быть использована искусственная нейронная сеть полносвязной структуры с параметром нейрона равным 0.4 и числом нейронов равным 2.
-                     Искусственная нейронная сеть полносвязной структуры из 16 нейронов с параметром преобразователя равным 0.1 способна порождать интуитивный прогноз социометрического эксперимента. Исходные данные для прогноза могут быть ограничены объективной психологической картиной исследуемых, сбор информации об их социальной истории необязателен. Относительная погрешность такого прогноза составляет 25-30%.
-                     Раскрытие механизма интуиции нейронных сетей при помощи аппарата вычисления значимости входных параметров позволяет упрощать психодиагностические модели, сокращая размерность пространства признаков.
-                     Нейронная сеть полутораслойной структуры способна решать задачу восстановления зависимости по обучающей выборке при помощи алгоритма поэтапного исчерпания ошибки наращиванием объема сети.
-                     Применение выборочной константы Липшица в алгоритме наращивания сети позволяет ограничить избыточность числа нейронов и объема сети.
Публикации. Основные результаты работы опубликованы в 11 печатных работах.
Апробация работы. Материалы диссертации были представлены на Всероссийском семинаре «Нейроинформатика и ее применение» в 1994 и 1995 годах, на конгрессе «Новые концепции раскрытия высших функций мозга» в 1995 году в японском городе Тохва, на всемирном нейросетевом конгрессе в Вашингтоне в июле 1995 года, в двух докладах на международном симпозиуме «Нейроинформатика и нейрокомпьютеры» в Ростове на Дону в сентябре 1995 года, на круглом столе по вопросам интеллектуальных технологий краевой конференции «Проблемы информатизации региона» в 1996 году, на 3-ей международной конференции «Математика, компьютер, образование» в Дубне в 1996 году. Последние результаты, полученные при создании полутораслойного предиктора доложены на конференции «Проблемы информатизации региона»-97. Разработанные методики оценки и прогноза совместимости в учебных группах используются в повседневной деятельности ФАР КГТА.

Глава 1. Психодиагностика и нейронные сети 1.1 Задачи и методы современной психодиагностики Важное место среди задач современной психологии занимает психодиагностика — принятие решения о наличном психологическом состоянии человека в целом или по отношению к какому либо отдельно взятому человеческому свойству. Целью психодиагностики по современным понятиям согласно [26] является описание индивидуально — психологических особенностей, свойств личности в интересах теории и практики.
По одной из наиболее употребляемых в настоящее время трактовок [71] психодиагностика является наукой, в русле которой решаются следующие вопросы:
                   Какова природа психологических явлений и принципиальная возможность их научной оценки?
                   Каковы в настоящее время общие научные основания для принципиальной познаваемости и количественной оценки психологических явлений?
                   В какой мере применяемые средства психодиагностики соответствуют принятым общенаучным, методологическим требованиям?
                   Каковы основные методические требования, предъявляемые к различным средствам психодиагностики?
                        Каковы основания достоверности результатов, предъявляемые к условиям проведения психодиагностики, средствам обработки полученных результатов и способам ее интерпретации?
                   Каковы основные процедуры конструирования и проверки научности методов психодиагностики, включая тесты?
Точная психодиагностика в любом психологическом эксперименте предполагает оценивание психологических свойств испытуемого.
Одним из ключевых в современной психодиагностике является понятие диагноза, которое в [61] трактуется следующим образом: «Понятие «диагноз» является своеобразным выражением и конкретизацией общенаучного понятия «состояние», отражающего доминирующий способ изменеия и развития систем в данных отношениях, в определенном месте и времени».
Согласно [21] диагностика как практическая деятельность осуществляется в целях преобразования реального состояния объекта. Диагностическое познание в целом является таким видом познания, в котором субъект, исходя из своих практических потребностей, ставит вполне определенную цель — использовать законы функционирования диагностируемого объекта для осуществления вмешательства в систему, то есть приведение ее в состояние нормального функционирования методами управления.
Однако психодиагностический метод согласно [7], [26] имеет свои особенности. Его анализ позволяет выделить специфические мотивы, определяющие активность субъекта, особую стратегию его поведения, специфику ситуации — как социальную (взаимодействие психолога и исследуемого), так и стимульную (например, с разной степенью структурированности) — и т.д.
Существенную сложность в психодиагностике составляет парадокс теоретического и психодиагностического описания одной и той же реальности, суть которого заключается в гносеологическом различии между «теоретической» и «измеренной» личностью, отличающейся в свою очередь от личности реальной. Следствием данной сложности является то, что попытки отождествления «теоретической» и «измеренной» личности оказываются, в конечном счете, малопродуктивными, носят искусственный характер.
Область применения психодиагностики согласно [71] весьма широка. В нее входят:
–Проверка гипотез, проверяемых в экспериментах;
–прикладные исследования, в которых требуется проверить результат введения тех или иных нововведений;
–психологическое консультирование, для проведения которого психолог должен иметь правильный диагноз исследуемого, видеть суть его проблемы;
–практическая психокоррекционная работа;
–медицинская психология;
–патопсихология;
–инженерная психология;
–психология труда.
Можно утверждать, что психодиагностика может применяться всюду, где требуется точное знание о степени развития тех или иных свойств человека.
Согласно [47] психодиагностика характеризуется широким спектром методических подходов. Данное многообразие обуславливает существование различных систем классификации психодиагностического эксперимента в зависимости от значимых для классификации атрибутов. Для компьютерной психодиагностики таким значимым атрибутом может служить формализуемость психодиагностической методики, которая позволяет определить возможность использования в психодиагностическом эксперименте компьютерной информационной технологии.
Понятие «формализуемость» конкретизируется разбиением на самостоятельно систематизирующиеся элементы: воздействие на испытуемого в ходе эксперимента (стимулы), ответы (отклики) испытуемого на это воздействие и операции с информацией, рожденной реакцией испытуемого на стимулы.

1.2 Сущность интуитивного метода Согласно [81] интуиция — знание, возникающее без осознания путей и условий его получения, в силу чего субъект имеет его как результат «непосредственного усмотрения». Интуиция трактуется и как специфическая способность (например, художественная и научная интуиция) и как «целостное охватывание» условий проблемной ситуации (чувственная интуиция, интеллектуальная интуиция) и как механизм творческой деятельности (творческая интуиция).
Научная психология рассматривает интуицию как необходимый, внутренне обусловленный природой творчества момент выхода за границы сложившихся стереотипов поведения и, в частности, логических программ поиска решения задачи.
Согласно [80] интуиция — эвристический процесс, состоящий в нахождении решения задачи на основе ориентиров поиска, не связанных логически или недостаточных для получения логического вывода. Для интуиции характерна быстрота (иногда моментальность) формулирования гипотез и принятия решений, а также недостаточная осознанность его логических оснований.
Интуиция проявляется в условиях субъективно или объективно неполной информации и органически входит в присущую мышлению человека способность к экстраполяции.
Механизм интуиции состоит в симультантном объединении нескольких информативных признаков разных модальностей в комплексные ориентиры, направляющие поиск решения. В таком одновременном учете различной по своему качеству информации состоит отличие интуитивных процессов от дискурсивных, в которых в одном мыслительном акте (логическом шаге) может учитываться только какая-то одна модификация признаков задачи, связываемых между собой.
Ориентиры поиска в интуитивных и дискурсивных процессах не имеют принципиального различия по составу входящей в них информации. Логические принципы, в том числе формальные, включаются в интуитивно формируемый информативный комплекс и, будучи сами по себе недостаточными для получения решения, в сочетании с другими информационными связями определяют направление поиска.
Основную роль в интуиции играют семантические обобщения, относящиеся к данной области задач. Такова интуиция врача или ученого.
  1.3 Математические модели и алгоритмы психодиагностики В работе исследователя по конструированию психодиагностического теста принято выделять три этапа [20], [47].
На первом этапе конструируется «черновой» вариант теста. В него включаются задания, ответы на которые, по мнению экспериментатора, должны отражать индивидуально-психологические различия испытуемых по данному конструкту.
На втором этапе исследователь выбирает диагностическую модель и определяет ее параметры. Под диагностической моделью понимается способ компоновки (преобразования, агрегирования) исходных диагностических признаков (вариантов ответов на задания теста) в диагностический показатель.
На третьем этапе проводится стандартизация и испытание построенной диагностической модели.
Наиболее употребляемой в психодиагностике является линейная диагностическая модель. Без применения эмпирико-статистического анализа не обходится ни одна серьезная попытка конструирования или адаптации тестов [97]. Исходным материалом для такого анализа служат результаты экспериментального обследования репрезентативной выборки испытуемых с помощью «чернового» варианта психодиагностического теста. Из полученных данных формируется таблица экспериментальных данных (см. табл. 1)
В табл.… N — общее количество объектов (испытуемых), p — общее количество признаков, xj — j-й признак, xij — значение j-го признака, измеренное у i-го объекта, X=( x1,…, xp)T — вектор признаков, Xi=( xi1,…, xip)T — i-й объект, X={ Xi} — множество объектов.
Исходные признаки xj, как правило, измерены в номинальных и порядковых (ординальных) шкалах [18],[82],[89]. Для большинства объективных методик нельзя априорно установить ни количественных отношений ни отношений порядка, поскольку их признаки представляют собой номинальные измерения. Зачастую при формализации тестовых методик применяют «дихотомизацию» [65] — процедуру преобразования исходных показателей в набор признаков с двумя градациями.
Для ординальных признаков существенен лишь порядок градаций на шкале, и для них считаются допустимыми любые монотонные преобразования не нарушающие этот порядок. Методически строгим является применение к ординальным признакам методов обработки, результат которых инвариантен относительно допустимых преобразований порядковой шкалы [49].
Далее, после сформирования таблицы экспериментальных данных, производится построение диагностической модели. Считается, что модель должна в определенной форме выражать зависимость между вектором входных признаков и тестируемым свойством (значение выраженности свойства далее будет обозначаться y). Модель должна отражать механизм преобразования y=y(x).
Предварительным этапом в построении диагностических моделей является как правило выяснение структуры таблицы экспериментальных данных. На этом этапе производится оценка корреляции между факторами и близости между объектами. Набор математических моделей и алгоритмов, используемых для этого, определяется исходя из специфики экспериментальных данных в психодиагностике.
    продолжение
--PAGE_BREAK--Для определения степени связи между признаками используются [48],[65],[73]:
–Коэффициент корреляции Пирсона, являющийся мерой линейной связи двух переменных: , где  и . В рамках этого же подхода сконструированы коэффициент ранговой корреляции Спирмена, точечный бисериальный коэффициент корреляции и тетрахорический коэффициент корреляции.
–Коэффициент , предназначенный для измерения связи двух дихотомических признаков [73]. Коэффициент вычисляется на базе таблиц сопряженности признаков (см. табл. 2) по формуле .
–Коэффициент ранговой корреляции «тау» Кенделла, основанный на подсчете числа несовпадений в ранжировке объектов по сопоставляемым переменным. Данный коэффициент разработан исходя из задачи истолкования процесса измерения связи между переменными без помощи принципа произведения моментов. Рассматриваются два признака   и , на каждый из которых N объектов отображаются в N последовательных рангов. Из N объектов формируется  пар. Тогда коэффициент вычисляется по формуле , где P — количество совпадений порядка на признаке  с порядком на признаке , Q — количество несовпадений.
Степень связи между признаками может быть использована для оценки избыточности набора признаков «черновой» модели, для взаимоконтроля шкал и т.п.
Для определения близости объектов используются различные меры расстояния:
*               Евклидово расстояние .
*               Взвешенное евклидово расстояние .
*               Расстояние Махаланобиса , где S — ковариационная матрица генеральной совокупности, из которой извлечены объекты  и .
*               Расстояние  Минковского  (городская метрика), применяющееся для измерения расстояния между объектами, описанными ординальными признаками.  равно разнице номеров градаций по k-му признаку у сравниваемых объектов  и .
*               Расстояние Хэмминга , которое используется для определения различий между объектами, задаваемыми дихотомическими признаками и интерпретируется как число несовпадений значений признаков у рассматриваемых объектов  и .
Полученная на основе какой-либо метрики (подробнее — [25], [48], [50]) информация о степени близости объектов может быть использована для выделения их группировок.
Представление информации о структуре экспериментальных данных служит промежуточным звеном в построении диагностической модели. Независимо от типа модели ее создание может опираться на два подхода:
1.Стратегия, основанная на автоинформативности экспериментальных данных.
Высокая степень близости между группой признаков может свидетельствовать о том, что признаки, вошедшие в группу, отражают эмпирический фактор, соответствующий диагностическому конструкту.
Выделение геометрических группировок в пространстве объектов может свидетельствовать о различии изучаемых объектов по тестируемому свойству, что позволяет строить диагностический алгоритм.
Для стратегий, основанных на автоинформативности экспериментальных данных, важной категорией является согласованность заданий теста.
Согласованность измеряемых реакций испытуемых на тестовые стимулы означает, что они должны иметь статистическую направленность на выражение общей, главной тенденции теста.
На стратегии, основанной на автоинформативности экспериментальных данных, строятся конструирование диагностического алгоритма при помощи метода главных компонент [17], [18], [19], факторного анализа [66] и метода контрастных групп [97].
2. Стратегия, основанная на критериях внешней информативности. Внешняя информация может быть представлена в виде привязки к объектам значений «зависимой» переменной, измеренной в количественной шкале, в виде номера однородного по тестируемому свойству класса, в виде порядкового номера (ранга) объекта в ряду всех объектов, упорядоченных по степени проявления диагностируемого свойства или в виде совокупности значений набора внешних (не включенных в таблицу экспериментальных данных) признаков, характеризующих тестируемый психологический феномен.
Методы, основанные на внешней информативности признаков принято подразделять на  экспертные, экспериментальные и жизненные.
К числу экспертных критериев относят оценки, суждения, заключения об испытуемых, вынесенные одним экспертом или их группой.
Экспериментальными критериями служат результаты одновременного и независимого исследования испытуемого другим тестом, который считается апробированным и измеряющим то же свойство, что и конструируемый тест.
В качестве жизненных критериев используются объективные социально — демографические и биографические данные.
На стратегии, основанной на внешней информативности экспериментальных данных, строятся конструирование диагностического алгоритма при помощи регрессионного анализа, дискриминантного анализа [49] и типологического подхода [60], [99].
Наиболее широко в настоящее время употребляются линейные диагностические модели. Однако в условиях неоднородности обучающей выборки они обладают практической успешностью не выше 70-80% [60].
Построенная диагностическая модель может считаться психодиагностическим тестом только после прохождения ею испытаний на предмет проверки психометрических свойств — надежности и валидности [20],[27].
Надежность теста — характеристика методики, отражающая точность психодиагностических измерений, а также устойчивость результатов теста к воздействию посторонних случайных факторов [27].
Валидность — мера соответствия тестовых оценок представлениям о сущности свойств или их роли в той или иной деятельности [60].
1.4 перспективные алгоритмы построения психодиагностических методик Перспективным направлением в построении психодиагностических методик в настоящее время считается использование аппарата теории распознавания образов [2], [13], [47].
Классификация методов распознавания образов многообразна. Выделяются параметрические, непараметрические и эвристические методы, существуют классификации основанные на терминологии сложившихся научных школ. В [52] методы распознавания образов классифицируются следующим образом:
–методы, основанные на принципе разделения;
–статистические методы;
–методы типа «потенциальных функций»;
–методы вычисления оценок (голосования);
–методы, основанные на аппарате исчисления высказываний.
Кроме того существенным для метода, основанного на теории распознавания образов, может быть способ представления знаний. В настоящее время выделяют два основных способа [78]:
                   Интенсиональные представления — схемы связей между атрибутами (признаками)
                   Экстенсиональные представления — конкретные факты (объекты, примеры).
Группа интенсиональных методов распознавания образов включает в себя следующие подклассы:
1)  Методы, основанные на оценках плотностей распределения значений признаков (методы непараметрической статистики) [18].
2)  Методы, основанные на предположениях о классе решающих функций (методы, использующие в качестве решающего алгоритма минимизацию функционала риска или ошибки) [6], [15],[36], [41], [94].
3)  Логические методы, базирующиеся на аппарате алгебры логики и позволяющие оперировать информацией, заключенной не только в отдельных признаках, но и в сочетании их значений [49].
4)  Лингвистические (структурные) методы, основанные на использовании специальных грамматик, порождающих языки, с помощью которых может описываться совокупность свойств распознаваемых объектов [93].
Группа экстенсиональных методов включает в себя:
                   Метод сравнения с прототипом, применяющийся когда распознаваемые классы отображаются в пространстве признаков компактными геометрическими группировками.
                   Метод k-ближайших соседей, в котором решение об отнесении объекта к какому-либо классу принимается на основе информации о принадлежности k его ближайших соседей.
                   Алгоритм вычисления оценок (голосования), состоящий в вычислении приоритетов (оценок сходства), характеризующего «близость» распознаваемого и эталонных объектов по системе ансамблей признаков, представляющей собой систему подмножеств заданного множества признаков [51],[52],[53].
При сравнении экстенсиональных и интенсиональных методов распознавания образов в [47] употребляется следующая аналогия: интенсиональные методы соответствуют левополушарному способу мышления, основанному на знаниях о статических и динамических закономерностях структуры воспринимаемой информации; экстенсиональные же методы соответствуют правополушарному способу мышления, основанному на целостном отображении объектов мира.
1.5 методы восстановления зависимостей Наиболее широко в данной работе будут рассмотрены методы построения психодиагностических методик на базе интенсиональных методов, основанных на предположениях о классе решающих функций. Поэтому рассмотрим их более подробно.
Основным достоинством методов, основанных на предположении о классе решающих функций является ясность математической постановки задачи распознавания как поиска экстремума. Многообразие методов этой группы объясняется широким спектром используемых функционалов качества решающего правила и алгоритмов поиска экстремума. Обобщением данного класса алгоритмов является метод стохастической аппроксимации [94].
В данном классе алгоритмов распознавания образов содержательная формулировка задачи согласно [29] ставится следующим образом:
Имеется некоторое множество наблюдений, которые относятся к p различных классов. Требуется, используя информацию об этих наблюдениях и их классификациях, найти такое правило, с помощью которого можно было бы с минимальным количеством ошибок классифицировать вновь появляющиеся наблюдения.
Наблюдение задается вектором x, а его классификация — числом  ().
Таким образом, требуется, имея последовательность из l наблюдений и классификаций  построить такое решающее правило , которое с возможно меньшим числом ошибок классифицировало бы новые наблюдения.
Для формализации термина «ошибка» принимается предположение о том, что существует некоторое правило , определяющее для каждого вектора x классификацию , которая называется «истинной». Ошибкой классификации вектора x с помощью правила  называется такая классификация, при которой  и  не совпадают.
Далее предполагается, что в пространстве векторов x существует неизвестная нам вероятностная мера (обозначаемая плотность ). В соответствии с   случайно и независимо появляются ситуации x, которые классифицируются с помощью правила . Таким образом определяется обучающая последовательность .
Качество решающего правила  записывается в виде , где .
Проблема следовательно заключается в построении решающего правила  таким образом, чтобы минимизировать функционал .
Сходной с задачей распознавания образов является задача восстановления регрессии, предпосылки к которой формулируются следующим образом:
Два множества элементов связаны функциональной зависимостью, если каждому элементу x может быть поставлен в соответствие элемент y. Эта зависимость называется функцией, если множество x — векторы, а множество y — скаляры. Однако существуют и такие зависимости, где каждому вектору x ставится в зависимость число y, полученное с помощью случайного испытания, согласно условной плотности . Иначе говоря, каждому x ставится в соответствие закон , согласно которому в случайном испытании реализуется выбор y.
Существование таких связей отражает наличие стохастических зависимостей между вектором x и скаляром  и скаляром y. Полное знание стохастической зависимости требует восстановления условной плотности , однако, данная задача весьма трудна и на практике (например, в задачах обработки результатов измерения) может быть сужена до задачи определения функции условного математического ожидания. Эта суженная задача формулируется следующим образом: определить функцию условного математического ожидания, то есть функцию, которая каждому x ставит в соответствие число y(x), равное математическому ожиданию скаляра y: . Функция y(x) называется функцией регрессии, а задача восстановления функции условного математического ожидания — задачей восстановления регрессии.
Строгая постановка задачи такова:
В некоторой среде, характеризующейся плотностью распределения вероятности P(x), случайно и независимо появляются ситуации x. В этой среде функционирует преобразователь, который каждому вектору x ставит в соответствие число y, полученное в результате реализации случайного испытания, согласно закону . Свойства среды P(x) и закон  неизвестны, однако известно, что существует регрессия . Требуется по случайной независимой выборке пар  восстановить регрессию, то есть в классе функций  отыскать функцию , наиболее близкую к регрессии .
Задача восстановления регрессии является одной из основных задач прикладной статистики. К ней приводится проблема интерпретации прямых экспериментов.
Задача решается в следующих предположениях:
–Искомая закономерность связывает функциональной зависимостью величину y с вектором x: .
–Целью исследования является определение зависимости  в ситуации, когда в любой точке x может быть проведен прямой эксперимент по определению этой зависимости, то есть проведены прямые измерения величины . Однако вследствие несовершенства эксперимента результат измерения определит истинную величину с некоторой случайной ошибкой, то есть в каждой точке x удается определить не величину , а величину , где  - ошибка эксперимента, .
–Ни в одной точке x условия эксперимента не допускают систематической ошибки, то есть математическое ожидание измерения  функции в каждой фиксированной точке равно значению функции  в этой точке: .
–Случайные величины  и  независимы.
В этих условиях необходимо по конечному числу прямых экспериментов восстановить функцию . Требуемая зависимость есть регрессия, а суть проблемы состоит в отыскании регрессии по последовательности пар .
Задача восстановления регрессии принято сводить к проблеме минимизации функционала  на множестве  (интегрируемых с квадратом по мере  функций) в ситуации, когда плотность  неизвестна, но зато задана случайная и независимая выборка пар .
1.6 алгоритмы и методы безусловной оптимизации Как было показано в предыдущем параграфе данной главы, решение основных задач восстановления зависимостей достигается при помощи процедуры оптимизации функционала качества.
Ее решение будет рассмотрено в подходах задачи безусловной минимизации гладкой функции  [77].
Данная задача непосредственно связана с условиями существования экстремума в точке:
*               Необходимое условие первого порядка. Точка  называется локальным минимумом  на , если найдется  для . Согласно теореме Ферма если  - точка минимума  на  и  дифференцируема в , то .
    продолжение
--PAGE_BREAK--*               Достаточное условие первого порядка. Если  - выпуклая функция, дифференцируемая в точке  и , то  - точка глобального минимума  на .
*               Необходимое условие второго порядка. Если  - точка минимума  на  и  дважды дифференцируема в ней, то .
*               Достаточное условие второго порядка. Если в точке   дважды дифференцируема, выполнено необходимое условие первого порядка () и , то  - точка локального минимума.
Условия экстремума являются основой, на которой строятся методы решения оптимизационных задач. В ряде случаев условия экстремума хотя и не дают возможности явного нахождения решения, но сообщают много информации об его свойствах.
Кроме того, доказательство условий экстремума или вид этих условий часто указывают путь построения методов оптимизации.
При обосновании методов приходится делать ряд предположений. Обычно при этом требуется, чтобы в точке  выполнялось достаточное условие экстремума. Таким образом, условия экстремума фигурируют в теоремах о сходимости методов.
И, наконец, сами доказательства сходимости обычно строятся на том, что показывается, как «невязка» в условии экстремума стремится к нулю.
При решении оптимизационных задач существенны требования существования, единственности и устойчивости решения.
Существование точки минимума проверяется при помощи теоремы Вейерштрасса:
Пусть  непрерывна на  и множество  для некоторого  непусто и ограничено. Тогда существует точка глобального минимума  на .
При анализе единственности точки экстремума применяются следующие рассуждения:
Точка минимума называется локально единственной, если в некоторой ее окрестности нет других локальных минимумов. Считается, что  - невырожденная точка минимума, если в ней выполнено достаточное условие экстремума второго порядка (,).
Доказано, что точка минимума (строго) выпуклой функции (глобально) единственна.
Проблема устойчивости решения возникает в связи со следующим кругом вопросов:
*               Пусть метод оптимизации приводит к построению минимизирующей последовательности, следует ли из этого ее сходимость к решению?
*               Если вместо исходной задачи минимизации решается задача, сходная с ней, можно ли утверждать близость их решений?
В [77] приводится следующее определение устойчивости:
Точка  локального минимума  называется локально устойчивой, если к ней сходится любая локальная минимизирующая последовательность, то есть если найдется  такое, что из  следует .
При обсуждении проблемы устойчивости решения задачи оптимизации можно выделить следующие важные теоремы.
*               Точка локального минимума непрерывной функции  локально устойчива тогда и только тогда, когда она локально единственна.
*               Пусть  - локально устойчивая точка минимума непрерывной функции , а  - непрерывная функция. Тогда для достаточно малых  функция  имеет локально единственную точку минимума  в окрестности  и  при .
*               Пусть  - невырожденная точка минимума , а функция  непрерывно дифференцируема в окрестности точки . Тогда для достаточно малых  существует  - локальная точка минимума функции  в окрестности , причем .
Помимо качественной характеристики точки минимума (устойчива она или нет) существенным является вопрос количественной оценки устойчивости. Такие оценки, позволяющие судить о близости точки  к решению , если  близко к  записываются следующим образом:
Для сильно выпуклых функций:
,
где  - константа сильной выпуклости.
Для невырожденной точки минимума:
,
где  - наименьшее собственное значение матрицы .
Как видно, в каждом из этих определений  играет роль характеристики «запаса устойчивости» точки минимума.
Кроме  в качестве характеристики устойчивости точки минимума используют «нормированный» показатель , называемый обусловленностью точки минимума .
,
.
Можно сказать, что  характеризует степень вытянутости линий уровня  в окрестности  - «овражность» функции (чем больше , тем более «овражный» характер функции).
Наиболее важны в идейном отношении следующие методы безусловной оптимизации: градиентный и Ньютона.
Идея градиентного метода заключается в том, чтобы достигнуть экстремума путем итерационного повторения процедуры последовательных приближений начиная с начального приближения  в соответствии с формулой , где  - длина шага.
Сходимость данного метода подтверждается в доказательстве следующей теоремы:
Пусть функция  дифференцируема на , градиент  удовлетворяет условию Липшица:
,
 ограничена снизу:

и  удовлетворяет условию
.
Тогда в градиентном методе с постоянным шагом  градиент стремится к 0: , а функция  монотонно убывает: .
Для сильно выпуклых функций доказываются более сильные утверждения о сходимости градиентного метода.
При решении задачи оптимизации методом Ньютона используется подход, заключающийся в итерационном процессе вида

и в нахождении точки экстремума как решения системы из n уравнений с n неизвестными
.
В методе Ньютона производится линеаризация уравнений в точке  и решение линеаризованной системы вида
.
Анализ достоинств и недостатков итерационных методов оптимизации можно свести в таблицу (см. табл. 3).
Видно, что достоинства и недостатки этих методов взаимно дополнительны, что делает привлекательной идею создания модификаций этих методов, объединяющих достоинства методов и свободных от их недостатков.
Модификацией градиентного метода является метод наискорейшего спуска:
, .
Модификация метода Ньютона с целью придания ему свойства глобальной сходимости возможна, например, способом регулировки длины шага:
.
Такой метод называют демпфированным методом Ньютона. Возможные подходы к способу выбора шага :
–     Вычисление по формуле ;
–     Итерационный алгоритм, заключающийся в последовательном дроблении шага  на константу начиная со значения  до выполнения условия ,  или условия , .
Демпфированный метод Ньютона глобально сходится для гладких сильно выпуклых функций.
Помимо одношаговых методов, к которым относятся градиентный метод и метод Ньютона, существует целый класс многошаговых методов, использующих для оптимизации информацию, полученную с предыдущих шагов. К ним относятся:
*                    Метод тяжелого шарика, использующий итерационную формулу , где ,  - некоторые параметры. Введение инерции движения (член ) в некоторых случаях приводит к ускорению сходимости за счет выравнивания движения по «овражистому» рельефу функции;
*                    Метод сопряженных градиентов. Здесь параметры оптимизации находятся из решения двумерной задачи оптимизации:
,
.
Кроме всех вышеперечисленных методов оптимизации существует еще класс методов, основанных на идее восстановления квадратичной аппроксимации функции по значениям ее градиентов в ряде точек. К ним относятся:
*                    Квазиньютоновские методы, имеющие общую структуру , где матрица  пересчитывается рекуррентно на основе информации, полученной на k-й итерации, так что . К числу таких методов относятся ДФП (метод Давидона-Флетчера-Пауэлла) и BFGS или БФГШ (метод Бройдена-Флетчера-Гольдфарба-Шанно) [46].
*                    Методы переменной метрики и методы сопряженных направлений, согласно которым метод , , может рассматриваться как градиентный в метрике , а оптимальным выбором метрики является .
1.7 нейронные сети В данной работе задачи распознавания образов и восстановления зависимостей будут решаться в основном с применением нейронных сетей. Обзор данной темы основан на [1]-[6], [8]-[15], [22],[23], [32]-[34], [36]-[41], [59], [64], [67]-[70], [83]-[88].
1.7.1 Основные элементы Нейронная сеть представляет собой структуру взаимосвязанных клеточных автоматов, состоящую из следующих основных элементов:
Нейрон — элемент, преобразующий входной сигнал по функции:

где x — входной сигнал, c — параметр, определяющий крутизну графика пороговой функции, а cm — параметр спонтанной активности нейрона.
Сумматор — элемент, осуществляющий суммирование сигналов поступающих на его вход:

Синапс  — элемент, осуществляющий линейную передачу сигнала:

где w — “вес” соответствующего синапса.
1.7.2 Структура сети Сеть состоит из нейронов, соединенных синапсами через сумматоры по следующей схеме:
1.7.3 Прямое функционирование сети Сеть функционирует дискретно по времени (тактами). Тогда синапсы можно разделить на “синапсы связи”, которые передают сигналы в данном такте,  и на “синапсы памяти”, которые передают сигнал с выхода нейрона на его вход на следующем такте функционирования. Сигналы, возникающие в процессе работы сети разделяются на прямые (используемые при выдаче результата сетью) и двойственные (использующиеся при обучении) и могут быть заданы следующими формулами:
Для i-го нейрона на такте времени T:

где mi0 — параметр инциации сети, xi1 — входные сигналы сети, поступающие на данный нейрон, fiT — выходной сигнал нейрона на такте времени T, Ai1 — входной параметр i-го нейрона на первом такте функционирования сети, AiT — входной сигнал i-го нейрона на такте времени T, aji — вес синапса от j-го нейрона к i-му, aMi — вес синапся памяти i-го нейрона,   ai1 — параметр нейрона и ai2 — параметр спонтанной активности нейрона, AiT-1 — входной сигнал i-го нейрона на такте T-1, fjT-1 — выходной сигнал j-го нейрона на такте T-1 и fiT,A — производная i-го нейрона по его входному сигналу.
Для синапса связи от i-го нейрона к j-му:

где sjT — входной сигнал синапса от i-го нейрона к j-му, fiT — выходной сигнал i-го нейрона, aij — вес данного синапса, sijT — выходной сигнал синапса на такте времени T.
Для синапса памяти i-го нейрона:
 
  1.7.4 Обучение сети В данной задаче обучение будет происходить по “коннекционистской” модели, то есть за счет подстройки весов синапсов.
Суть обучения состоит в минимизации функции ошибки , где W- карта весов синапсов. Для решения задачи минимизации необходимо вычисление градиента функции по подстраиваемым параметрам:

1.7.5 Обратное функционирование Расчет градиента ведется при обратном отсчете тактов времени  по следующим формулам:
Для синапса связи:

Для синапса памяти:

Окончательно после прохождения q тактов времени частные производные по весам синапсов будут иметь вид для синапсов памяти и для синапсов связи соответственно:


Выводы главы 1                    Применяемый в психодиагностике математический аппарат недостаточно удовлетворяет современным требованиям.
                   Насущной является потребность во внедрении в психодиагностические методики математического аппарата, связанного с распознаванием образов и восстановлением зависимостей.
                   Существующие математические методы и алгоритмы слишком сложны и трудоемки для применения их специалистами — предметниками, в том числе и психодиагностами и не позволяют компьютерным методикам непосредственно по прецедентам перенимать опыт человека-специалиста.
Использование математического аппарата нейронных сетей при создании нейросетевых экспертных психологических систем позволяет свести к минимуму требования к математической подготовке их создателей.

Глава 2. Решение нейросетями классических задач психодиагностики 2.1 Классический эксперимент Специфические особенности математического аппарата нейронных сетей, детально описанные в [36], [41] и опыт их применения в различных областях знания (см. например [5], [8], [10], [13], [84], [86]) подсказали возможность решения при их помощи и психологических задач.
Предполагалось проверить несколько возможностей использования нейронных сетей, а именно:
— Во первых — ожидалось решение серьезной проблемы, возникающей у разработчиков и пользователей компьютерных психологических тестов, а именно адаптивности методик. Математическое построение современных объективных диагностических тестов основано на сравнении, сопоставлении выявленного состояния с нормой, эталоном [21], [71]. Однако понятно, что нормы выработанные для одной социокультурной группы вовсе не обязательно являются таковыми же для другой (в качестве примера можно привести сложности, которые приходится преодолевать при адаптации зарубежных методик). Нейросетевые же имитаторы обладают полезной в данном случае особенностью дообучаться по тому материалу, который предоставит конкретный исследователь.
— Во вторых — предполагалось использование нейросетевого имитатора как рабочего средства исследователя.
— В третьих — оценка возможности создания при помощи нейронных сетей новых, нестандартных тестовых методик. Предполагалось проверить возможность выдачи непосредственных рекомендаций по преобразованию реального состояния объекта, минуя стадию выставления диагноза (построения «измеренной индивидуальности» [26]).
Исследование было выполнено с применением нейросетевых программных имитаторов объединения «НейроКомп» [36], [41], [70], [85], [87] на психологическом материале, собранном в Красноярском гарнизонном военном госпитале.
В первую очередь предстояло выяснить, доступен ли нейросетям тот уровень диагностики, который уже достигнут при помощи стандартных психологических тестов. Для получения результатов максимальной достоверности была выбрана достаточно проверенная клинической практикой психологическая методика ЛОБИ [57] (Личностный Опросник Бехтеревского института). Кроме того, немаловажным фактором в выборе именно этого теста было и то, что методика четко алгоритмизована и имеет реализацию в виде компьютерного теста.
Итак задачей эксперимента было определить, насколько адекватно нейросетевой имитатор может воспроизвести результаты типовой психологической методики в постановке диагноза пациенту.
    продолжение
--PAGE_BREAK--Рассмотрев данную задачу, а также имеющиеся в наличии нейросетевые программы было решено воспользоваться нейросетевым имитатором MultiNeuron (описание пакета см. в [85], [87]).
Пакет программ MultiNeuron представляет собой программный имитатор нейрокомпьютера, реализованный на IBM PC/AT, и, в числе прочих функций, предназначен для решения задач n-арной классификации. Данный пакет программ позволяет создавать и обучать нейросеть для того, чтобы по набору входных сигналов (например, по ответам на заданные вопросы) определить принадлежность объекта к одному из n (n
Задачники были сформированы из строк ответов, представляющих собой цепочку из 162 сигналов, каждый из которых отвечал за 1 из вопросов опросника ЛОБИ по следующему принципу: -1 — выбран негативный ответ на данный вопрос, 1 — выбран позитивный ответ, 0 — вопрос не выбран. Данная система обозначений была выбрана, исходя из желательности нормировки входных сигналов, подаваемых на вход нейронов на интервале [-1,1]. Ответ задавался классами, 1 класс — тип отсутствует, 2 класс — тип диагностируется. При этом для чистоты эксперимента по собственно типам реакции на стресс было принято решение отказаться от диагностики негативного отношения к исследованию и исключить из обучающей выборки такие примеры.
В общих чертах суть экспериментов сводилась к следующему: часть примеров исходной выборки случайным образом исключалась из процесса обучения. После этого нейронная сеть обучалась на оставшихся, а отобранные примеры составляли тестовую выборку, на которой проверялось, насколько вычисленные ответы нейронной сети соответствуют истинным.
В процессе обучения нейронных сетей с различными характеристиками автор пришел к выводу, что для данной задачи можно ограничиться числом нейронов равным 2 (то есть по 1 нейрону на каждый из классов). Наилучшие результаты при тестировании на проверочной выборке показали сети с характеристическим числом нейронов c=0.4.
Для подробной обработки была взята выборка, отвечающая за эргопатический тип ЛОБИ. Серия экспериментов по обучению сети показала, что полносвязная сеть, обучаемая на выборке из 152 примеров, не показывает результат лучше, чем 90% правильных ответов (в среднем же — около 75%). Тот же результат подтвердился при проведении сквозного тестирования, когда обучение производилось на 202 примерах, а тестировался 1. После обучения 203 сетей по такой методике был получен сходный результат — уверенно правильно было опознано 176 примера (86.7%), неуверенно правильно — 4 (1.97%), неверно — 28 (13.79%), то есть общий процент правильных ответов составил 88.67. Следует, однако, отметить, что рост числа примеров обучающей выборки до 200 позволили улучшить число правильных ответов до гарантированной величины 88.67% (см. выше). Следует предположить, что дальнейшее увеличение обучающей выборки позволит и еще улучшить данный результат. Кроме того, причина ошибок в определении эргопатического типа по ЛОБИ может скрываться в недостаточном числе примеров с наличием данного типа (отношение примеров с наличием и отсутствием типа составляет 29:174). Это подтверждается также и тем, что среди примеров с наличием типа процент неверных ответов ( 12 из 29 или 41.38%) несопоставимо выше чем в выборке в целом. Можно, таким образом, сделать вывод, что нейронные сети при использовании определенных методов улучшения результатов (см. ниже) позволяют создавать компьютерные психологические тесты, не уступающие ныне применяющимся методикам, но обладающие новым и очень важным на практике свойством — адаптивностью.
2.2 Оценка значимости вопросов теста Представляет также интерес результат, полученный при оценке значимости входных сигналов (соответственно — вопросов ЛОБИ).
Пусть некоторый функциональный элемент нейронной сети преобразует поступающий на него вектор сигналов A по какому-либо закону , где — вектор адаптивных параметров. Пусть H — функция оценки, явно зависящая от выходных сигналов нейросети и неявно от входных сигналов и параметров нейросети. При двойственном функционировании будут вычислены частные производные  для элемента v. Эти производные показывают чувствительность оценки к изменению параметра, чем больше , тем сильнее изменится H при изменении этого параметра для данного примера. Может также оказаться, что производная по какому-либо параметру очень мала по сравнению с другими, это означает, что параметр практически не меняется при обучении. Таким образом, можно выделить группу параметров, к изменениям которых нейросеть наименее чувствительна, и в процессе обучения их вовсе не изменять. Разумеется, что для определения группы наименьшей или наибольшей чувствительности необходимо использовать частные производные функции оценки по параметрам в нескольких циклах обучения и для всех примеров задачника. Во время обучения нейросети динамика снижения функции оценки меняется на разных этапах обучения. Бывает важным определить, какие входные сигналы на данном этапе обучения существенны для нейросети, а какие нет. Такая информация полезна в тех случаях, когда размерность вектора входных сигналов велика и время обучения также оставляет желать лучшего, поскольку позволяет уменьшить размерность вектора входных сигналов без ухудшения обучаемости нейросети.
Предлагается следующий алгоритм решения такой задачи: через несколько циклов после начала обучения нейронной сети включаем процедуру вычисления показателей значимости. Момент начала запуска данной процедуры желательно подбирать индивидуально в каждом конкретном случае, поскольку в первые несколько циклов обучения нейросеть как-бы «рыскает» в поисках нужного направления и показатели значимости могут меняться на диаметрально противоположные. Далее происходит несколько циклов обучения, в ходе которых накапливаются показатели чувствительности в какой-либо норме.
1)  
2)
где — норма для i-го сигнала, — оценка значимости i-го сигнала в k-м примере, M — число циклов подсчета значимости. После того, как показатели  подсчитаны, можно произвести уменьшение числа входных сигналов. Уменьшение следует производить исходя из того, что чем меньше значение  тем менее оно влияет на процесс обучения.
2.3 Контрастирование сети по значимости вопросов теста Таким образом, наряду с вычислением показателей значимости для оценки степени обученности нейросети, определением групп значимых сигналов появляется возможность на ранних этапах отсеивать сигналы, маловлияющие на процесс обучения и работу обученной нейросети.
Однако следует отметить, что данный алгоритм не страхует от того, что параметр, оказавшийся неважным в начале обучения, не станет доминирующим при окончательном доучивании нейронной сети.
Исходя из таких посылок, автор произвел расчет параметров значимости сигналов (вопросов) опросника ЛОБИ. При выборе сигналов с максимальной значимостью был получен список номеров вопросов, важных для определения данного типа, причем он в существенной части совпадал с ключевой выборкой для данного типа по ЛОБИ. При отсечении малозначимых входов был получен интересный результат — качество обучения сети существенно улучшилось (на 2-х таких сетях был получен результат 95.24% и 90.48%, или 20 и 19 правильных ответов из 21 тестового примера). Какой же вывод позволяет сделать данный результат?
Из самых грубых оценок необходимого объема экспериментальной выборки при создании тестовой методики следует, что если размерность «ключевой последовательности» составляет N вопросов, то для вычисления весовых коэффициентов при этих вопросах необходимая выборка должна составлять порядка N*N примеров. Как раз примерно такое соотношение (N — порядка 15, N*N — порядка 200) имело место в описанном эксперименте. Однако следует помнить, что множество вопросов теста, как правило, гораздо шире, чем необходимо для диагностики данного признака, поскольку методики в большинстве своем предназначены для определения нескольких признаков. А, следовательно, возникает следующая проблема: для определения параметров модели требуется M*M примеров, где M — общее число вопросов. Стоит, видимо, напомнить, что для методики ЛОБИ, например, M=162, тогда число примеров должно составить 26244, что практически нереально для практика — одиночки, не имеющего за спиной мощного исследовательского центра.
В случае же, когда выборка имеет недостаточный размер, возникает феномен «ложных корреляций» — модель определяет влияние на выходной результат тех параметров, которые на самом деле слабо с ним коррелируют. Именно такие «ложные корреляции» и вызывают ошибки при отнесении исследуемых к классу наличия или отсутствия диагностируемого типа.
  2.4 Результаты экспериментов с контрастированными сетями В следующей серии экспериментов  был использован прием, называемый «контрастированием». В нейроимитаторе «MultiNeuron» имеется возможность отключать часть входных сигналов. Достигается это тем, что синапсу, отвечающему за отключаемый вход, присваивается фиксированное значение — 0, которое не может быть изменено в процессе обучения. Тогда этот вход не влияет на процесс обучения сети. В данном эксперименте автор исходил из того, что входы, обладающие минимальной значимостью в области подстроечных параметров, которая соответствует обученному состоянию сети, являются несущественными для диагностики типа. Следовательно, при их отключении снижается размерность пространства входов, а следовательно — и потребный размер обучающей выборки. Кардинальное улучшение результатов обучения, достигнутое после проведения контрастирования подтверждает этот факт, ведь полученный из общих представлений объем экспериментальной выборки как раз оказался достаточным для обучения контрастированной сети.
Итак, на вопрос, заданный выше, мы можем ответить: улучшение результатов обучения после анализа и настройки входов свидетельствует о том, что контрастирование является средством борьбы с ложными корреляциями, и следовательно позволяет сократить объем экспериментальной выборки для многоплановых методик.
Кроме того, побочным результатом обработки может служить набор вопросов, существенных для данного типа, что может дать предмет для размышлений психологам — теоретикам.

Выводы главы 2 1. Полносвязная нейронная сеть позволяет производить психодиагностику исследуемых на базе опросников классических тестов с вероятностью правильного ответа 95%.
2. Для создания нейросетевых экспертных систем не нужно вмешательства математика, данная технология позволяет программе непосредственно перенимать опыт психодиагноста.
3. Психодиагностическая методика, созданная на базе технологии нейросетевых экспертных систем адаптивна к смене социокультурных групп.
4. При помощи возможностей программных нейроимитаторов можно выполнять исследование параметров психодиагностических методик и уточнять их структуру.

Глава 3. Интуитивное предсказание нейросетями взаимоотношений 3.1 Проблема оценки взаимоотношений В работе практических психологов, имеющих дело с подбором персонала или исследующих взаимоотношения внутри уже сложившихся групп (примером первого может служить психолог-консультант по подбору персонала, примером второго — офицер по работе с личным составом в частях, классный руководитель в школе) постоянно возникает задача установления и прогноза межличностных отношений в группе.
Под отношением в данной работе понимается психологический феномен, сутью которого является возникновение у человека психического образования, аккумулирующего в себе результаты познания конкретного объекта действительности (в общении это другой человек или группа людей), интеграции всех состоявшихся эмоциональных откликов на этот объект, а также поведенческих ответов на него [24]. Кроме того, общение обыкновенно происходит в условиях определенной ситуации: в присутствии других людей, которые для общающихся в разной степени субъективно значимы, на фоне какой-то конкретной деятельности, при действии каких-либо экспериментальных факторов.
3.2 Общая задача экспериментов В данной работе была поставлена задача смоделировать и, по возможности, спрогнозировать систему взаимоотношений в группе на основе состояния и поведения исследуемых, оставляя в стороне такие аспекты формирования отношений между людьми, как внешний облик, приписываемые человеку цели и мотивы [24]. Оценке и прогнозу подвергались межличностные «статусно-ролевые» [79] отношения в группах. Оценка совместимости «человек-человек» и «группа-человек» велась по оценке статуса исследуемых — индивидуальной (от каждого к каждому) и групповой (от группы к человеку).
Задача моделирования и прогнозирования взаимоотношений людей в группе (коллективе) неоднородна — она может быть условно подразделена на следующие подзадачи:
– прогноз вхождения исследуемого в сложившийся коллектив;
– прогноз совместимости между собой двух исследуемых.
Кроме того, при проведении экспериментов предполагалось апробировать к задаче прогноза межличностных отношений методику интуитивной выдачи предсказания минуя создание описанной (дескриптивной) [26] реальности.
3.3 Применяемые в экспериментах психологические методики Для определения фактических отношений в исследуемых группах применялась социометрическая методика. Данная методика позволяет определить положение исследуемого в системе межличностных отношений той группы, к которой он принадлежит. Социометрическое исследование группы обычно проводится тогда, когда группа включает в себя не менее 10 человек и существует не менее одного года. Всем членам исследуемой группы предлагается оценить каждого из товарищей (включая и самого себя — появляется возможность изучения самооценки исследуемых). В стандартном варианте методики оценка ведется по трехступенчатой шкале предпочтений — «приемлю — безразличен — отвергаю». Однако для получения большей разрешающей способности методики шкала была модифицирована до десятибалльной. В используемом варианте социометрического исследования применялось следующее задание: «Оцените своих товарищей, задав себе вопрос: «Насколько я бы хотел работать с этим человеком в одной группе?». Поставьте в соответствующей графе оценку от 1 до 10 баллов по следующему принципу: 1 — не хочу иметь с ним ничего общего, 10 — с этим человеком я бы хотел работать сильнее всего».
Результатом исследования для каждого из испытуемых в группе являлась стеновая оценка статуса и экспансивности. Стен [20] представляет собой усредненную оценку, нормированную в предположении, что оценки распределены по закону нормального распределения и, следовательно, выполняется правило «трех сигм». Статусом именуется стеновый балл всех оценок, сделанных данному члену группы, экспансивностью — стеновый балл всех оценок, сделанных данным испытуемым всем остальным представителям группы.
В процессе экспериментов предполагалось подтвердить (или отвергнуть) гипотезу о том, что нейросеть позволяет на основе психологических особенностей людей (представителей группы) моделировать взаимоотношения в группе и выдавать прогноз по вхождению в группу нового члена и по взаимоотношениям двух индивидуумов. Предполагалось также оценить качество прогноза — возможные значения ошибок и их распределение.
Описание личностных качеств испытуемых предполагалось получить на основе опросника, составленного А.Г. Копытовым (ППФ КГУ). Опросник включает в себя три субтеста, каждый из которых составлен из вопросов, предназначенных для определения константных свойств человеческой личности — темперамента, эмоциональности, контактности и т. п. Общее число вопросов — 90, в первом субтесте — 29, во втором — 25 и в третьем — 36. Текст опросников — см. Приложение 3.
Сбор данных производился путем проведения одновременного анкетирования в студенческих учебных группах по опроснику А.Г. Копытова и социометрического исследования. Затем результаты социометрии обрабатывались на специально разработанной программе (см. Приложение 2), рассчитывающей стеновые оценки статуса и экспансивности.
Эксперименты по обучению нейронных сетей производились на нейросетевом имитаторе MultiNeuron v2.0 в режиме предиктора, то есть нейросети, имеющей на выходе вещественное число (подробное описание — см. [85], [87]).
    продолжение
--PAGE_BREAK--3.4 Эксперименты по предсказанию группового статуса В этой серии экспериментов предполагалось проверить, насколько нейронные сети способны моделировать вхождение в группу отдельного человека.
По вышеописанной методике были обследованы три студенческие группы — третьего, четвертого и пятого курсов, общее число собранных анкет — 48 (19, 17 и 12 по группам соответственно). Результаты анкетирования каждой из групп был составлен задачник, представляющий собой реляционную таблицу, включающую следующие поля:
№ — автоиндексируемый номер записи, ID — номер испытуемого по списку группы, w1_1 — w1_29 — ответы на вопросы первого субтеста, w2_1 — w2_25 — ответы на вопросы второго субтеста, w3_1 — w3_36 — ответы на вопросы третьего субтеста, to1 — to30 — оценки, выставленные данным испытуемым членам группы (строка социометрической матрицы), St — значение стеновой оценки статуса данного испытуемого, Ex — экспансивности.
Для первого и третьего субтестов, у которых вопрос имел два варианта ответа («Да»/«Нет»), ответ кодировался по принципу 1 — «Да», 2 — «Нет». Второй субтест, имеющий три варианта ответов («а», «б, «в») — 1 — вариант «а», 2 — «б», 3 — «в».
При формирования структуры задачника поля w1_1 — w3_36 были обозначены как входные, поле Ex — как выходное. Нейросеть в процессе обучения должна была приобрести умение предсказывать статус члена группы по его ответам на опросник А.Г. Копытова.

На первом этапе были проведены эксперименты для выяснения оптимальных параметров нейросети, предназначенной для решения задачи предсказания статуса члена группы. Из-за малочисленности выборок эксперименты велись в режиме «скользящего тестирования», когда для решения задачи обучается столько же сетей, сколько задач в задачнике. При обучении каждой из сетей одна задача исключалась, и потом сеть тестировалась по ней. Для оценки качества предсказания Hвыб применялся средний модуль ошибки , чем ниже значение — тем, соответственно лучше предсказание. Результаты этого этапа экспериментов сведены в таблицу 1.
Значения чисел нейронов — Nneu — были взяты из следующих соображений: нейросети с числом нейронов менее 16 обучались решению задачи неустойчиво, процесс оптимизации постоянно заходил в тупик, а Hвыб во всех таких экспериментах превышало 3 (30% относительной погрешности). 64 является максимально допустимым значением числа нейронов для программы MultiNeuron v.2.0. Значения характеристических чисел нейронов были распределены в интервале от 0.1 до 0.7, поскольку данный интервал является, по опыту, накопленному в группе «НейроКомп» [32], [33], [34], [36], [39], [41], [59], [84], [86], интервалом, в котором как правило лежат оптимальные характеристические числа нейронов.
Таким образом, по результатам данной серии экспериментов оптимальным было признано количество нейронов, равное 16, и характеристический параметр нейрона равный 0.1, поскольку данные значения обеспечивают наилучшую выборочную оценку качества прогноза Hвыб.
Следующим этапом работы была серия экспериментов, позволяющих оценить точность предсказания статуса исследуемых внутри групп. Для каждой из групп было выполнено обучение сетей для проведения скользящего контроля. Затем результаты скользящего контроля фиксировались и сводились в табл. 2.
Однако, по опыту применения нейроимитаторов, известно, что на одних и тех же обучающих выборках предсказание выдаваемое сетью может существенно разниться.
Причина этого в том, что начальная карта синаптических весов генерируется случайным образом. Для преодоления данной проблемы в практике создания нейросетей (см. например [36]) используется предсказание ответов группой сетей, обученных на одних и тех же данных — консилиумом.
Решено было применить этот метод и для данной задачи. При проведении скользящего контроля по выборке для каждого из случаев обучалась не одна нейросеть, а десять.
Фиксировались средние выборочные значения ошибки предсказания статуса каждым из экспертов, а затем, оценивалась погрешность предсказания всем консилиумом.
Для этого в качестве ответа на каждую из задач скользящего контроля подавалось среднее значение ответов десяти нейросетей — экспертов. Результаты этого эксперимента представлены в табл. 3.
Здесь Nиссл — число исследуемых в данной группе, H1 — H10 — средние ошибки предсказания статуса для каждой из сетей консилиума, Hср — среднее значение ошибки по всем сетям консилиума, Hвыб — ошибка предсказания всем консилиумом.
Таким образом по трем группам средний модуль ошибки составляет 3,08 (или, в относительных цифрах, средняя погрешность составляет 30,8%).
Такая погрешность является удовлетворительной для задачи предсказания статуса членов группы, поскольку как правило не выводит испытуемого из групп классификации — «лидер»-«середняк»-«аутсайдер», то есть отражает тенденцию вхождения в группу нового человека.
Кроме того, при статистическом исследовании экспериментальных выборок было вычислено среднее расстояние между случайными оценками  и
,
где N — количество элементов выборки.
Можно считать, что  характеризует математическое ожидание расстояния между двумя случайными примерами выборки.
Для экспериментов установления статуса тестируемых в группе , или 40.33%. Таким образом можно утверждать, что полученная сетью погрешность (30,8%) значимо отличается от случайной.
Следующая серия экспериментов производилась с целью уяснения, насколько можно предсказывать результаты вхождения в одну группу на базе опыта, накопленного сетью по другой группе.
В ходе экспериментов для каждой из групп был обучен консилиум из десяти нейросетей (их характеристики, как и в предыдущих экспериментах, Nneu=16, =0,1). Здесь задачник подавался для обучения полностью, то есть сеть обучалась предсказанию статуса по всем представителям группы. Затем на сетях этого консилиума тестировались две другие группы.
Для сглаживания фактора случайности при генерации сетей в качестве вычисленных значений при расчете ошибки определения статуса брались по каждой оценке средние значения из вычисленных десятью сетями консилиума. Результаты этой серии экспериментов представлены в табл. 4.
Здесь Об. — порядковый номер группы, по которой обучались нейронные сети консилиума, Тст. — порядковый номер группы, по которой сети тестировались.
При анализе данной серии экспериментов заметны следующие закономерности:
– предсказание социального статуса испытуемых нейронными сетями, обученными по другим группам (не по тем, в которой производилось определение статуса при социометрическом опросе) по своему качеству несколько хуже, чем такое же предсказание, сделанное нейросетями, обученными на этой же группе;
– однако, в большинстве случаев (в двух третях из проведенных экспериментов) оценка качества (средний модуль ошибки Hвыб) является приемлемой (менее 3 баллов или, в относительных значениях — менее 30%);
– хорошо видно, как при предсказании статуса испытуемых в группах реализуется принцип создания надежных систем из ненадежных элементов, заложенный в концепцию нейронных сетей: ошибка предсказания одной нейросетью может составлять неприемлемо большую величину, однако консилиум из нескольких нейросетей решает задачу существенно лучше — ошибка предсказания консилиумом сетей меньше большинства из ошибок отдельных сетей, она также всегда меньше чем среднее значение ошибок отдельных сетей консилиума.
После оценки качества предсказания между группами решено было проверить гипотезу о том, что нейросеть может накапливать опыт не только по отдельной группе, но и аккумулировать его по любой заданной последовательности испытуемых. Для проверки гипотезы была предпринята следующая серия экспериментов: данные по всем группам были объединены в один задачник, по которому проводилось скользящее тестирование консилиума из десяти сетей — экспертов. Результаты данной серии из 480 экспериментов представлены в табл. 5.
Видно, что, как и в предыдущей серии экспериментов, погрешность каждого из экспертов (и, как минимум, математическое ожидание погрешности) выше, чем погрешность консилиума, то есть математическое ожидание оценок по консилиуму сетей всегда (или, вернее, в большинстве случаев) ближе к верному ответу, чем оценки отдельных экспертов.
Кроме того легко заметить, что предсказание статуса исследуемых в группе улучшается с накоплением выборки — оценка погрешности предсказания, сделанного нейросетями, обученными по объединенной выборке лучше, чем в любых других экспериментах.
Иначе говоря, нейросети обладают возможностью аккумулировать опыт предсказания социометрического статуса исследуемых в группе, причем этот опыт не локален — навык, полученный на исследуемых одной группы значим и для оценки исследуемых, принадлежащих к другим группам.
Этот результат подтверждает тезис, приведенный в [98], о том, что оценки равных в группе устойчивы и, видимо, на них не влияет изменение состава группы.
Причина этого феномена, предположительно, в том, что при предсказании статуса испытуемых информация о них существенно ограничена — отсутствуют данные анамнестического плана, данные об их социальном положении.
Этим практически исключается из состава используемых в прогнозе данных информация о внешнем облике, принадлежности к социокультурной или национальной группе — то есть вся социальная история личности и коллектива в целом, хотя известно, что эти факторы могут вызвать существенное различие в поведении людей со схожим типом личности.
Информация же о константных психологических качествах испытуемых относительно однородна от группы к группе, что позволяет нейросети накапливать опыт, основанный на ней.
3.5 Нейросетевое исследование структуры опросника Следующим этапом работ по прогнозу статуса испытуемых в группах было определение значимости вопросов опросника и исключение из него наименее значимых вопросов.
Согласно результатам главы 2 это может привести к улучшению качества прогноза, выдаваемого нейросетью. Для решения данной задачи была использована возможность вычисления значимости параметров, заложенная в MultiNeuron.
Были обучены пять нейронных сетей по задачнику, включающему все три группы исследуемых, затем, средствами MultiNeuron, определены числовые значения значимости сигналов, соответствующих вопросам опросника.
После этого список вопросов был отсортирован по среднему значению величины значимости. В результате была получена следующая картина (вопросы размещены по убыванию значимости):
1_6. Вы обычно говорите без запинок?
1_23. Вы обычно предпочитаете делать несложные дела, не требующие от Вас большой энергии?
1_7. Легко ли Вы можете найти другие варианты решения известной задачи?
3_24. Самое трудное для Вас — это справиться с собой.
3_28. Вы склонны принимать все слишком близко к сердцу.
3_22. Вам нетрудно внести оживление в довольно скучную компанию.
1_2. Легко ли Вам выполнять работу, требующую длительного внимания и большой сосредоточенности?
1_1. Легко ли Вы генерируете идеи, связанные с работой?
3_10. Вы не раз замечали, что незнакомые люди смотрят на Вас критически.
3_8. Иногда у Вас пропадает или изменяется голос, даже если Вы не простужены.
2_3. Окружающим известно, что у меня много разных идей, и я почти всегда могу предложить какое-то решение проблемы.
    продолжение
--PAGE_BREAK--1_19. Обычно Вы предпочитаете легкую работу?
1_27. Дрожат ли у Вас иногда руки во время ссоры?
3_20. Некоторые так любят командовать, что Вам все хочется делать наперекор, хотя Вы знаете, что они правы.
2_25. Бывает, что я говорю незнакомым людям о вещах, которые кажутся мне важными,  независимо оттого, спрашивают меня, или нет.
2_19. Если начальство или члены семьи меня в чем-то упрекают, то, как правило, только за дело
3_3. Дурные предчувствия всегда оправдываются
2_24. Обычно я спокойно переношу самодовольных людей, даже когда они хвастаются или другим образом показывают, что они высокого мнения о себе.
2_11. Устаревший закон должен быть изменен
3_29. Вы любите готовить (пищу)
3_35. Вы вели дневник.
1_8. Вы когда-нибудь опаздываете на свидание или работу?
2_5. Ко дню рождения, к праздникам (я люблю делать подарки / затрудняюсь ответить / считаю, что покупка подарков несколько неприятная обязанность)
1_9. Часто ли Вам не спится из-за того, что вы поспорили с друзьями?
2_21. При равной продолжительности дня мне было бы интереснее работать(столяром или поваром / не знаю, что выбрать / официантом в хорошем ресторане)
1_3. Испытываете ли Вы чувство беспокойства, что Вас неправильно поняли в разговоре?
1_5. Быстры ли у Вас движения рук?
3_4. Вы очень часто не в курсе дел и интересов тех людей, которые Вас окружают.
1_28. Испытываете ли Вы тягу к напряженной ответственной деятельности?
3_7. Нравятся ли Вам “первоапрельские” шутки?
1_17. Трудно ли Вам говорить очень быстро?
1_15. Всегда ли Вы платили бы за провоз багажа на транспорте, если бы не опасались проверки?
3_25. Временами Вам так нравится ловкость какого-нибудь преступника, что Вы надеетесь, что его не поймают.
1_10. Нравится ли Вам быстро бегать?
3_33. Ваши родители и другие члены семьи часто придираются к Вам
2_2. У меня бывают такие волнующие сны, что я просыпаюсь
3_18. Вы совершаете много поступков о которых потом жалеете (больше и чаще чем другие)
2_10. Думаю, что обо мне правильнее сказать, что я (вежливый и спокойный / верно нечто среднее / энергичный и напористый)
3_34. Временами, когда Вы плохо себя чувствуете, Вы бываете раздражительными.
3_12. Держитесь ли Вы обычно “в тени” на вечеринках или в компаниях?
1_20. Медленны ли Ваши движения, когда Вы что-то мастерите?
3_2. Иногда Вам очень хотелось навсегда уйти из дома
3_31. Вы стараетесь избегать конфликтов и затруднительных положений.
3_16. Иногда по несколько дней Вы не можете отделаться от какой-нибудь пустяковой мысли.
3_11. Вы знаете, кто виноват в большинстве Ваших неприятностей.
1_21. Вы обычно предпочитаете выполнять только одну операцию?
1_18. Дрожат ли у Вас иногда руки во время ссоры?
1_14. Все ли Ваши привычки хороши и желательны?
3_14. Не все Ваши знакомые Вам нравятся.
3_15. Предпочитаете ли Вы иметь поменьше приятелей, но зато особенно близких Вам.
3_13. Иногда Вы не уступаете людям не потому, что дело действительно важное, а просто из принципа.
3_26. Если Вам не грозит штраф, то Вы переходите улицу там, где Вам удобно, а не там, где положено.
2_7. Мне нравится работа разнообразная, связанная с частыми переменами и поездками, даже если она немного опасна
1_29. Нравится ли Вам быстро говорить?
3_9. Вам неловко входить в комнату, где уже собрались и разговаривают люди
2_20. Бывает, что я говорю незнакомым людям о вещах, которые кажутся мне важными,  независимо оттого, спрашивают меня, или нет.
3_21. Вы предпочитаете не заговаривать с людьми, пока они сами к Вам не обратятся.
3_23. Когда Вы узнаете об успехах близкого знакомого, у Вас появляется чувство, что Вы неудачник.
1_24. Сосет ли у Вас под ложечкой перед ответственным разговором?
2_14. Мне доставляет удовольствие совершать рискованные поступки только ради забавы
3_6. Временами в голову приходят такие мысли, что лучше о них никому не рассказывать
2_13. Иногда какая-нибудь навязчивая мысль не дает мне заснуть
2_8. Я предпочел бы иметь дачу (в оживленном дачном поселке / предпочел бы нечто среднее / уединенную, в лесу)
2_1. Я предпочитаю несложную классическую музыку современным  популярным мелодиям?
2_22. Когда мною пытаются командовать, я нарочно делаю все наоборот
3_17. Вы часто беспокоитесь о чем-нибудь.
1_22. Бывает ли так, что Вы говорите о вещах, в которых не разбираетесь?
1_16… Обычно Вам трудно переключать внимание с одного дела на другое?
2_4. У меня бывают такие волнующие сны, что я просыпаюсь
1_11. Испытываете ли Вы постоянную жажду деятельности?
3_19. В гостях Вы держитесь за столом лучше, чем дома.
3_36. Вы легко смущаетесь.
3_30. Вы не осуждаете того, кто стремится взять от жизни все, что может.
2_16. Если бы я работал в хозяйственной сфере, мне было бы интереснее
1_25. Считаете ли Вы свои движения медленными и неторопливыми?
3_32. Справляетесь ли Вы с делом лучше, обдумывая его самостоятельно, а не обсуждая с другими.
2_12. Если кто-то разозлился на меня (Я постарался бы его успокоить / я не знаю, что бы я предпринял / это вызвало бы у меня раздражение)
1_12. Быстро ли Вы читаете вслух?
3_5. Иногда Вы так настаиваете на чем-нибудь, что люди начинают терять терпение
2_18. Обычно я могу сосредоточенно работать, не обращая внимания на то, что люди вокруг меня очень шумят
1_26. Ваша речь обычно медленна и нетороплива?
2_17. Вечер, проведенный за любимым занятием, привлекает меня больше, чем оживленная вечеринка
2_15. Я делаю людям резкие критические замечания, если мне кажется, что они того заслуживают
1_4. Любите ли Вы игры в быстром темпе?
1_13. Если Вы обещали что-то сделать, всегда ли Вы выполняете свое обещание независимо от того, удобно это Вам или нет?
2_9. Я провожу много свободного времени, беседуя с друзьями о тех прежних событиях, которые мы вместе пережили когда-то.
2_6. Иногда у меня бывали огорчения из-за того, что люди говорили обо мне дурно за глаза без всяких на то оснований.
3_27. Вы часто испытываете тягу к новым впечатлениям, к тому, чтобы встряхнуться, испытать возбуждение.
2_23. Люди относятся ко мне менее благожелательно, чем я того заслуживаю своим добрым к ним отношением.
3_1. Часто ли Вы переходите на другую сторону улицы, чтобы не встречаться с кем нибудь из знакомых?
Для определения значимости субтестов теста было произведено вычисление средней значимости по вопросам каждого из них. Субтесты распределились в следующем порядке: наиболее значимый — 1-й, далее — 3-й и наименее значимый — 2-й. Данное распределение можно проиллюстрировать гистограммой (рис. 1). Для построения этой гистограммы все вопросы, отсортированные в порядке убывания значимости, были разбиты на девять десяток, а затем для каждой из них было подсчитано число вхождений вопросов, принадлежащих первому, второму и третьему субтесту.
Для вопросов первого субтеста виден эксцесс распределения в сторону большей значимости, второго — в сторону меньшей, а вопросы третьего — относительно равномерно распределены по всему интервалу.
Была произведена серия экспериментов с целью выяснить достаточный для нейросети объем опросника. На каждом этапе исключалась половина из имеющихся вопросов опросника.
При исключении половины вопросов скользящий контроль консилиума сетей, обученных на выборке по всем группам, дал среднюю погрешность в 24%, при исключении трех четвертей вопросов — в 28% и, наконец, при исключении семи восьмых нейросети обучиться не смогли.
Таким образом, примерно половина вопросов и без того изначально минимизированного теста оказалась для нейросети избыточной, даже приводящей к ухудшению оценки качества предсказания. Оптимальным можно признать опросник из половины вопросов, максимальных по своей значимости для нейронной сети, поскольку результаты тестирования для него лучше чем для всех остальных вариантов, включая и полный набор вопросов.
  3.6 Оценка оптимизации задачника нейросетью с позиций теории информации Разницу между первоначальным (заданным психологом) и требуемым нейросети для успешного решения задачи объемом опросника можно оценить с позиций теории информации [95].
Начальное количество информации, содержащейся в тесте можно оценить исходя из того, что вопросы первого и третьего тестов бинарны (варианты ответов «Да» и «Нет», вероятность наступления каждого из них — 0.5), а ответы на вопросы второго — могут с равной вероятностью соответствовать наступлению одного из трех событий, которые будем считать равновероятными (варианты ответов «А», «Б» и «В», p=0.333). Тогда, исходя из формулы Шеннона

и учитывая, что количество вопросов в первом субтесте — 29, во втором — 25 и в третьем — 36 можем вычислить суммарное количество информации, содержащееся в ответах на вопрос теста:
.
После исключения половины вопросов из-за их малой значимости для нейронной сети в оптимизированном опроснике осталось 16 вопросов первого субтеста, 9 — второго и 20 — третьего. Количество информации, оставшееся после оптимизации:
,
то есть количество информации при оптимизации сократилось несколько более чем вдвое.
  3.7 Эксперименты по предсказанию парных взаимоотношений В этой серии экспериментов предполагалось установить, способны ли нейросети воспроизвести взаимоотношения пары испытуемых.
Обучающие выборки имели следующую структуру: № — номер примера, ID_From — номер оценивающего, ID_From — имя оценивающего, ID_To — номер оцениваемого, Name_To — имя оценивающего, w1_1_From — w3_36_From — ответы на вопросы опросника А.Г. Копытова, данные оценивающим, w1_1_To — w3_36_To — ответы на вопросы опросника А.Г. Копытова, данные оцениваемым, Ocen — данная оценка.
В задачник включались строки, соответствующие всем клеткам социометрической матрицы кроме диагональных, отвечающих за самооценку испытуемых.
Был сформирован задачник по группе 5-го курса. В него вошли 132 примера, по которым было произведено обучение соответствующего числа сетей по методике скользящего контроля.
В силу большой трудоемкости задачи обучения по выбооркам такого объема и размерности (обучение одной сети занимает около 40 мин.) обучения консилиумов не проводилось.
Результат скользящего контроля следующий: средняя относительная ошибка предсказания парных взаимоотношений в группе составила 33,1%.
Затем было вычислено среднее расстояние между случайными оценками  и , вычисляемое, как и в п.3.4, по формуле
,
где N — количество примеров обучающей выборки.
Данная величина составила 6.612 (или, относительно шкалы измерения признака, 66.12%), то есть отличие предсказания сети от случайного почти двукратное.
Таким образом, можно говорить, что нейронные сети могут предсказывать не только усредненный статус члена группы, но и взаимоотношения между двумя произвольно взятыми личностями.

Выводы главы 3                    Нейронная сеть способна на основе только психологических свойств исследуемых, без привлечения фактов социальной истории исследуемых личностей, интуитивно порождать прогноз результатов социометрического эксперимента на базе, со средней ошибкой 23-30%.
                   Данный прогноз общезначим для всех исследуемых с равным социальным статусом и устойчив относительно состава группы.
                   Аппарат нейронных сетей позволяет оптимизировать  психодиагностические тестовые методики по объему точнее, чем это доступно даже опытному психологу.

Глава 4. Полутораслойный предиктор с произвольными преобразователями 4.1 Постановка проблемы Функция F на R задана набором своих значений в случайных точках пространства . Построим ее аппроксимацию при помощи комбинаций — функций из набора , гладких и непрерывно дифференцируемых. Тогда
— ошибка аппроксимации F функцией ;
— ошибка предыдущего шага аппроксимации

Аппроксимация может вестись не только подбором коэффициентов, но и выбором на каждом шаге функций  из . Таким образом может быть получено разложение функции F в сходящийся ряд вида:

Решение задачи аппроксимации может быть получено путем минимизации функционала качества, соответствующего квадрату отклонения:
,
Задача состоит в приближении функции F, заданной исходной выборкой точек, при помощи нейросети-предиктора с неизвестным заранее количеством нейронов и видом функции, используемой в преобразователе каждого из нейронов.
Решение может быть представлено как итерационный процесс, состоящий из следующих шагов:
— Подключение нового нейрона;
— Оптимизация ошибки предсказания значений в заданных точек для текущего нейрона путем подбора функции преобразователя, ее параметров и весов синапсов;
Если заданная точность достигнута, то процесс можно остановить, в противном случае — процесс повторяется сначала, причем параметры уже обученных нейронов фиксируются, так что каждый новый нейрон обучается вычислять погрешность, оставшуюся от предыдущих.
Количество итераций процесса исчерпания ошибки может быть также ограничено из условия превышения нижней оценки константы Липшица для конструируемой нейронной сети над верхней оценкой выборочной константы Липшица.
4.2 Аналитическое решение Пусть  - приближаемое очередным слоем значение. Тогда  - само значение приближаемой функции в точках экспериментальной выборки, а  и последующие — погрешности вычисления на соответствующем шаге.
Обучение ведется оптимизацией параметров сети каким либо из градиентных методов по всему задачнику.
Тогда при обучении k-го нейрона
,
соответственно H (функция ошибки) для всего задачника будет иметь вид
,
то есть в качестве критерия близости аппроксимируемой и аппроксимирующей функций выбрана сумма квадрата ошибки по всей обучающей выборке.
Для обучения каждого очередного нейрона используются частные производные функциипо весам синапсов первого слоя :
,
параметру нейрона

и весу синапса второго (выходного) слоя  соответствующему данному нейрону
,
где  - число примеров обучающей выборки.
Однако, если вычисление функции H связано с затратами процессорного времени  порядка TH, то вычисление ее градиента традиционным способом потребует времени порядка
TgradH=nTH,
где n — число переменных функции H. Учитывая, что в задачах, для которых традиционно применяются нейросети, величина n может достигать нескольких тысяч, аналитическое решение для вычисления градиента функции ошибки следует признать неприемлемым.
Однако при описании решающей функции F в виде сети автоматов вычисление градиента функции ошибки H может быть представлено как функционирование системы, двойственной исходной. При таком подходе
,
где C -  константа, не зависящая от размерности n и в большинстве случаев примерно равная 3.
Таким образом, мы приходим к записи решения исходной задачи в идеологии нейронных сетей.
4.3 Запись решения в идеологии нейросетей Как уже было сказано, выше, ряд вида  может быть представлен как нейронная сеть, имеющая структуру, показанную на рис.1.
Тогда вычисление градиента функции ошибки H можно производить, используя схему, двойственную данной. При этом решение задачи может быть существенно упрощено применением следующего приема. Поскольку обучение следующего слоя начинается тогда, когда предыдущие уже обучены, а их связи зафиксированы, то, фактически, каждый нейрон обучается отдельно от других, а в качестве значения, вычисляемого k-м нейроном берется погрешность вычисления функции предыдущими k-1 — нейронами, или Fi.
Процесс обучения всей сети сводится этим ее разбиением к ряду последовательных процессов обучения структур вида, представленного на рис. 2.
Здесь x1 — xN — входные сигналы сети, Wij(1) — синапсы первого слоя от i-го входа к j-му сумматору первого слоя, Wj1(2) — синапсы второго слоя от j-го преобразователя к выходному сумматору, fj — j-й преобразователь, символом  обозначаются тривиальные сумматоры.
Далее в тексте такая структура будет именоваться «потоком сети» или просто «потоком».
Вычисление производных H (функции ошибки) для сети, представляющего собой один «поток», можно вести на основе аппарата двойственных функций и алгоритма обратного распространения ошибки. Схема прохождения сигналов при обратном функционировании показана на рис. 3.
    продолжение
--PAGE_BREAK--Здесь   - двойственный сигнал от функции оценки, передаваемый без изменения через тривиальный сумматор второго слоя,  - двойственный сигнал от соответствующего синапса второго слоя,  - двойственный сигнал от преобразователя j-го «потока», передающийся сумматору для раздачи на синапсы,  - двойственные сигналы соответствующих синапсов первого слоя.
  4.4 Алгоритмическая часть Обучение сети, состоящей из «потоков» производится в соответствии с алгоритмом, представленным на рис. 4.
Здесь H — значение оценки сети, накопленное по всему задачнику,  — константа малости ошибки.
Для обучения каждого из потоков используется алгоритм, показанный на рис.5. Здесь Nф — общее число функций, по которому идет обучение, o — карта параметров сети, h0 — шаг оптимизации в начале цикла, s — градиент функции оценки H по обучаемым параметрам.
Используемое в алгоритме условие остановки формируется из двух подусловий, скомбинированных через «или»:
1.  Число шагов оптимизации, во время которых  превысило заранее заданную величину (при обучении использовалось значение Nsh=15), то есть сеть в данной конфигурации уже не может улучшить оценку;
2.  Достигнуто заданное значение функции оценки , то есть сеть уже обучена.
При обучении одного потока используются процедуры подбора шага оптимизации — Increase (поиск шага в сторону возрастания, блок-схему см. на рис. 6), Decrease (поиск шага в сторону убывания, блок-схему см. на рис. 7) и Parabola (поиск оптимального шага по формулам параболического поиска блок-схему см. на рис. 8).
В процедурах используются следующие обозначения:
H(...) — функция оценки сети, накопленная по всему задачнику;
h1, h2, h3 — различные значения величины шага оптимизации, используемые при ее подборе;
W — величина шага в вершину параболы, проходящей через точки (h1, H1), (h2, H2), ( h3, H3). Вычисляется по формуле:
 
H1, H2, H3 — значения функции ошибки, соответствующие смещению обучаемых параметров по направлению градиента на величину шага h1, h2 и h3.
Условие выпуклости комбинации h1,2,3, H1,2,3 определяется формулой

Если выражение истинно, то условие выпуклости выполнено.
Теперь,  рассмотрев алгоритмы обучения сети, перейдем к описанию компонентов, структуры и функционирования сети.
  4.5 Оценка информационной емкости нейронной сети при помощи выборочной константы Липшица Условие остановки процесса пошагового исчерпания ошибки может основываться также на оценке полноты функции, заданной нейронной сетью. В случае, если число элементов сети задано (для каждого шага наращивания «поточной» это так) и значения ее параметров ограничены на определенном интервале (это условие выполняется наложением ограничений на параметры сети), данное условие можно сформулировать с использованием константы Липшица. Константа Липшица вектор-функции  в области D определяется как . Верхняя грань может быть вычислена по области определения D. В качестве оценки расстояния используется евклидова норма.
Для суперпозиции вектор-функций  .
Для линейной комбинации функций  оценка константы Липшица .
Константа Липшица для адаптивного сумматора, работающего по формуле  имеет вид .
Тогда для стандартной комбинации, состоящей из матрицы входных синапсов, сумматора и преобразователя — нейрона с гладкой функцией активации  .
Для прямой суммы вектор-функций  константа Липшица может быть оценена как .
Таким образом, для слоя нейронов с подбираемыми преобразователями , где  - вектор весов синапсов, приходящих на входной сумматор i-го нейрона, а  - функция i-го преобразователя.
Если заменить всю область определения функций D на конечное множество (задачник), то условие, определяющее требуемый объем нейронной сети можно получить, сравнивая  с оценкой константы Липшица для обучающей выборки .
 является нижней оценкой константы Липшица аппроксимируемой функции. Нейросеть может реализовать данную функцию только в том случае, когда .
Исходя из данного условия, можно сформулировать алгоритм обучения сети с поэтапным исчерпанием ошибки так, как это показано в блок-схеме на рис. 9
4.6 Соглашение о терминологии Изложение вопросов, связанных со структурой и функционированием сети, тесно связано с программной реализацией задачи. Поэтому по тексту будут встречаться ссылки на реальные структуры программы.
Для описания компонентов сети был использован аппарат объектно-ориентированного программирования [28], реализованный в среде разработки программ Borland Delphi Developer v.3.0. (см. [44], [45], [58], [63], [75], [76])
Базовым понятием в языке программирования Object Pascal, встроенном в Delphi, является класс  — особый вид записи, включающий поля и методы.
Экземпляр класса называется объектом.
Понятие поле для объекта аналогично понятию поля для записи.
Метод — процедура или функция, описанная внутри класса и предназначенная для операции над его полями.
4.7 Компоненты сети Традиционный состав элементов сети (см. главу 1) включает в себя следующие элементы: нейрон, синапс, сумматор. Кроме того, в число типовых включены входной и выходной элементы.
На рис. 9 показаны схематические изображения элементов сети, которые далее будут использованы в схемах, описывающих структуру и функционирование программной модели.
4.8 Общий элемент сети Базовым типом элементов, используемых для описания нейронной сети, является общий элемент сети  — класс, инкапсулирующий основные свойства и методы, характерные для всех компонентов сети. Название этого класса в программной реализации — TNetPiece.
Объекты данного класса включают в себя следующие поля:
NextPiece — указатель на следующий элемент сети;
PriorPiece — указатель на предыдущий элемент сети;
ForwOut — значение сигнала, передающегося элементом вперед при прямом функционировании;
BackOut — значение сигнала, передающегося элементом назад при обратном функционировании.
Набор методов включает в себя:
Create — описание создания объекта;
Destroy — действия при разрушении (удалении) объекта;
ForwardTact — действия элемента во время такта прямого функционирования;
BackwardTact — действия элемента во время такта обратного функционирования;
При описании методов ForwardTact и BackwardTact они были оставлены пустыми, так как функционирование конкретных элементов сети существенно различно.
Однако введение этих методов имеет достаточно глубокий смысл, поскольку класс TNetPiece является предком всех прочих классов, описывающих элементы сети, и наличие типовых процедур прямого и обратного функционирования позволяет использовать такие свойства модели объектно-ориентированного программирования как наследование свойств и методов и полиморфизм. Подробнее этот тезис будет раскрыт ниже.
4.9 Вход сети Для связи сети с задачником и передачи используются объекты класса TNetInput — входной элемент сети.
Данный класс является потомком TNetPiece, и поэтому наследует его набор полей и методов этого класса, а кроме того добавлено поле SourceSignal, которое содержит номер поля задачника, с которого данный вход сети забирает значение.
Методы ForwardTact и BackwardTact перекрыты, то есть их код заменен на тот, который соответствует назначению входного элемента.
Метод ForwardTact выполняет передачу значения из соответствующего данному элементу поля задачника на выходной сигнал элемента, поле ForwOut.
Метод BackwardTact передает двойственный сигнал следующего элемента на свой двойственный сигнал (поле BackOut).
4.10 Выход сети Выходной элемент сети описывает класс TNetOutput, также являющийся потомком TNetPiece.
В методах ForwardTact и BackwardTact заложены действия элемента при прямом и обратном тактах функционирования.
Метод ForwardTact выполняет передачу сигнала от выхода предыдущего на выход данного элемента, кроме того в поле H заносится значение ошибки сети при вычислении функции Y.
Метод BackwardTact передает на обратный выход элемента (поле BackOut) значение двойственного сигнала. Двойственный сигнал H представляет собой производную функции ошибки по выходному сигналу сети:
,
где  - аппроксимированное значение функции, выдаваемое сетью,  - значение аппроксимируемой функции в данном примере.

4.11 Синапс сети Для описания синапсов сети используются объекты класса TNetSynapse. Как наследник класса TNetPiece он наследует все его поля и методы. Помимо этого в список полей включены Alpha — параметр, представляющий собой вес синапса, и MuAlpha — сигнал, двойственный весу синапса.
На такте прямого функционирования метод ForwardTact снимает выходной сигнал предыдущего элемента, умножает его на вес синапса и передает на выходной сигнал данного объекта (поле ForwOut).
На такте обратного функционирования метод BackwardTact передает в поле BackOut двойственный сигнал синапса, который может быть вычислен по следующей формуле:
,
где  - двойственный сигнал, передаваемый синапсом, W — функция преобразования в синапсе,  - сигнал, поступающий в синапс от предыдущего элемента на такте прямого функционирования,  - входной двойственный сигнал, поступающий в синапс от следующего элемента на такте обратного функционирования, — вес синапса.
Кроме того на обратном такте вычисляется сигнал, двойственный и представляющий собой значение частной производной функции ошибки по этому параметру:
,
где  - сигнал, двойственный .
Для значений ,  в классе TNetSynapse предусмотрены поля Alpha и MuAlpha.
4.12 Тривиальный сумматор Программной моделью тривиального сумматора является класс TSummator.
Помимо полей, унаследованных от класса — предка TNetPiece, TSummator имеет в своей структуре PriorPieces, которое, в отличии от стандартного поля PriorPiece является не указателем на предыдущий элемент, а списком указателей на набор таких элементов.
Метод ForwardTact осуществляет суммирование выходных сигналов элементов из списка PriorPieces и помещает полученный результат в поле ForwOut.
На такте обратного функционирования происходит передача двойственного сигнала следующего элемента на двойственный сигнал сумматора BackOut.
4.13 Нейрон В данной работе под термином «нейрон» подразумевается нелинейный преобразователь вида
,
где у — выходной сигнал преобразователя,  - входной сигнал,  - параметр преобразователя,  - так называемый «параметр спонтанной активности».
Нейрон описывается в программной модели классом TNeuron, выходной сигнал на такте прямого функционирования заносится в поле ForwOut.
Обучаемыми в нейроне являются оба параметра —  и , поэтому в классе TNeuron помимо полей Alpha и  AlphaS, в которых хранятся значения соответствующих параметров, предусмотрены MuAlpha и MuAlphaS, в которых помещаются значения двойственных им сигналов.
Помимо этого в поле BackOut заносится сигнал, двойственный входному. Кроме того, объект класса TNeuron характеризуется еще и полем FunctionType, представляющим собой номер используемой функции преобразователя в списке функций, используемых при оптимизации.
Вычисление двойственных сигналов в нейронах производится в общем случае по формулам:
,
где  — параметр, для которого вычисляется двойственный сигнал,  - сам двойственный сигнал.
Список выражений для применяемого в данной работе набора стандартных функций с их производными по основным параметрам приведен в таблице 1.
4.14 Поток сети Фрагмент сети, состоящий из слоя входных синапсов, сумматора, нейрона и выходного синапса и названный «потоком» представлен в программной модели классом TNetStream.
Помимо обычных для потомка класса TNetPiece полей NextPiece, PriorPiece, ForwOut и BackOut данный класс включает в себя FirstLayer  — список синапсов первого слоя, Summator — объект класса TSummator, реализующего тривиальный сумматор, Neuron — объект класса TNeuron, реализующего нелинейный преобразователь — нейрон, SecondLayer — объект класса TSynapse, описывающий выходной синапс потока.
Прямой такт потока, описанный методом ForwardTact, происходит следующим образом:
Перебираются элементы списка FirstLayer, для каждого из которых вызывается его собственный метод ForwardTact, затем происходит «срабатывание» (вызов этого же метода) для объектов Summator, Neuron и SecondLayer. Затем выходной сигнал объекта  заносится в поле ForwOut — выходной сигнал всего потока.
Такт обратного функционирования потока, который описан в методе BackwardTact, включает в себя следующие действия:
Последовательный вызов собственного метода BackwardTact для объектов SecondLayer, Neuron и Summator, затем перебор элементов списка FirstLayer и вызов метода BackwardTact для каждого синапса, входящего в него.
Структура связей между элементами потока представлена на рис 10.
4.15 Скомпонованная полутораслойная поточная сеть Целая сеть представлена классом TNet. Данный класс также является потомком класса TNetPiece — общего элемента сети, что позволяет, используя свойство полиморфизма объектов, достаточно легко компоновать из отдельных фрагментов нейросети более сложной структуры.
Кроме полей, унаследованных от TNetPiece, сеть характеризуется также полями Inputs  — список входных элементов, Streams — список потоков сети, SecondLayer — сумматор входного слоя, Answer — выходной элемент сети.
Для описания такта прямого функционирования сети используется, так же как в других элементах сети, метод ForwardTact. Методом выполняются следующие действия:
Перебор списка входных элементов и вызов метода ForwardTact для каждого из них, перебор и прямое функционирование каждого из элементов списка потоков, и затем — для объектов SecondLayer и Answer.
Метод BackwardTact, описывающий обратное функционирование сети, задается следующей последовательностью действий:
Обратное функционирование элементов Answer, SecondLayer, затем перебор и выполнение методов BackwardTact для элементов списков Streams и Inputs.
Структура связей между стандартными элементами полностью скомпонованной поточной нейросети показана на рис. 11.
Схема, приведенная на рис. 11, хорошо иллюстрирует преимущества применения объектно-ориентированного подхода к моделированию нейронных сетей.
Свойство полиморфизма объектов позволяет составлять список предыдущих элементов, например, сумматора, как из простых синапсов, так и из более сложных структур — потоков. Для этого требуется лишь аккуратное выполнение иерархии объектов, описывающих элементы сети.
В перспективе, с появлением параллельных трансляторов, объектно-ориентированный подход за счет свойства инкапсуляции объектов позволит легко перейти к моделированию нейросетей в параллельных системах.

Выводы по главе 4.                    Созданный программный имитатор полутораслойной нейронной сети представляет собой механизм, позволяющий реализовать систему преобразователей, восстанавливающих зависимость, заданную в виде обучающей выборки.
                   Использование в программе алгоритма попоточного исчерпания ошибки позволяет ей создавать нейронные сети неизбыточной структуры.
    продолжение
--PAGE_BREAK--                   Дополнение алгоритма попоточного исчерпания ошибки проверкой на сравнение константы Липшица нейронной сети с выборочной константой Липшица дает возможность использовать в работе пользовательского программного обеспечения более строгие требования к требуемому для восстановления функции по данной выборке объему нейронной сети.
                   Применение принципов объектно-ориентированного программирования при создании программного имитатора полутораслойной нейронной сети позволило создать программу с прозрачной, легко расширяемой и сопровождаемой структурой.

ВЫВОДЫ 1.                 Показано, что для решения классической задачи компьютерной психодиагностики с вероятностью правильного ответа около 95% может быть применена искусственная нейронная сеть из 2 нейронов с параметром преобразователя равным 0,4. При этом такая экспертная система способна перенимать опыт специалиста непосредственно, без участия математика или программиста.
2.                 У полносвязной искусственной нейронной сети с числом нейронов 16 и параметром преобразователя 0.1 возможно выработать психологическую интуицию, позволяющую выдавать предсказание взаимоотношений, формализованных в виде результатов социометрического эксперимента, с погрешностью 25-30%.
3.                 Задача предсказания взаимоотношений может решаться интуитивно — без построения описанной реальности и без сбора информации о социальной истории исследуемых.
4.                 Созданная программа, представляющая собой нейронную сеть полутораслойной структуры, способна решать задачу восстановления зависимости по обучающей выборке при помощи алгоритма поэтапного исчерпания ошибки наращиванием объема сети.
5.                 Применение при создании программы выборочной константы Липшица в алгоритме наращивания сети позволило реализовать способ ограничения избыточности числа нейронов и объема сети.
6.                 Применение концепции объектно-ориентированного программирования позволило разработать гибкий, открытый и легко сопровождаемый нейроимитатор.

Основное содержание диссертации изложено в следующих работах:
Dorrer M.G. Neural networks instead of psychological measurements // Abstracts of the 3rd International conference «Mathematics, computer, education». Dubna, 1996.
Dorrer M.G., Gorban A.N., Kopytov A.G. Simulation of psychological intuition by means of neural networks // New Concepts to Uncover Higher Brain Functions. The 5th Tohwa university International Symposium. Fukuoka, Japan: Tohwa University, 1995. — p.153.
Dorrer M.G., Gorban A.N., Kopytov A.G. Zenkin V.I. Psychological intuition of neural networks // Proceedings of the WCNN’95 (World Congress on Neural Networks’95, Washington DC, Juli 1995) — pp. 193-196
Dorrer M.G., Gorban A.N., Zenkin V.I. Neural networks in psychology: classical explicit diagnoses // Neuroinformatics and neurocomputers, Proceedings of the 2nd RNNS-IEEE Symposium, Rostov-on-Don, September 1995 — pp 281-284
Gorban A.N., Rossiev D.A., Butakova E.V., Gilev S.E., Golovenkin S.E., Dogadin S.A., Dorrer M.G., Kochenov D.A., Kopytov A.G., Maslennikova E.V., Matyushin G.V., Mirkes Ye.M., Nazarov B.V., Nozdrachev K.G., Savchenko A.A., Smirnova S.V., Shulman V.A., Zenkin V.I. Medical, psychological and physiological applications of MultiNeuron neural simulator // Neuroinformatics and neurocomputers, Proceedings of the 2nd RNNS-IEEE Symposium, Rostov-on-Don, September 1995 — pp 7-14
Gorban A.N., Rossiev D.A., Gilev S.E., Dorrer M.G., Kochenov D.A., Mirkes Ye.M., Golovenkin S.E., Dogadin S.A., Nozdrachev K.G., Matyushin G.V., Shulman V.A., Savchenko A.A. Medical and physiological applications of MultiNeuron neural simulator // Proceedings of the WCNN’95 (World Congress on Neural Networks’95, Washington DC, Juli 1995) — paper № 050
Gorban A.N., Rossiev D.A., Gilev S.E., Dorrer M.G., Kochenov D.A., Mirkes Ye.M., Golovenkin S.E., Dogadin S.A., Nozdrachev K.G., Matyushin G.V., Shulman V.A., Savchenko A.A. «NeuroComp» group: neural network software and its application // Russian Academy of Sciences, Krasnoyarsk Computing Center, Preprint №8. — Krasnoyarsk, 1995 — 38p.
Доррер М.Г. Обработка психологической информации при помощи нейронных сетей. // Проблемы информатизации региона: Материалы второй межрегиональной конференции. Красноярск: КГТУ, 1997. — с.33-43.
Доррер М.Г. Полутораслойный предиктор с произвольными преобразователями. // Проблемы информатизации региона: Труды Третьей Всероссийской конференции (Красноярск, 25-27 ноября 1997 г.). — Красноярск: АО «Диалог-Сибирь», 1997г. -с.143.
Доррер М.Г. Попытка применения нейронных сетей для прогнозирования психологической совместимости в группе. // Нейроинформатика и ее приложения: Программа и тезисы докладов II всероссийского рабочего семинара. — Красноярск: КГТУ, 1994. — с.13.
Доррер М.Г., Горбань А.Н., Копытов А.Г., Зенкин В.И. Психологическая интуиция нейронных сетей // Нейроинформатика и ее приложения: Материалы III всероссийского рабочего семинара. — Красноярск: КГТУ, 1995. — с.114-127.

ЛИТЕРАТУРА 1.  Amari S. — I. The Brain and Computer // Proceedings of 1993 International Joint Conference on Neural Networks, Nagoya, Japan, October 25-29, 1993. — Nagoya, 1993. — v.1. — p.7-8.
2.  Asary K.V., Eswaran C.A. Self-organizing Neural Network for Multidimensional Mapping and Classification of Multiple Valued Data // Proceedings of 1993 International Joint Conference on Neural Networks, Nagoya, Japan, October 25-29, 1993. — Nagoya, 1993. — v.2. — p.2488-2491.
3.  Atamanchuk Z.M., Petrov A.A. Some problems of building and learning of neural networks while creating user’s expert systems diagnoses // The RNNS-IEEE Symposium on Neuroinformatics and Neurocomputers, Rostov-on-Don, September 1992 — v.2. — pp 1133-1135.
4.  Baxt W.G. Complexity, chaos and human physiology: the justification for non-linear neural computational analysis // Cancer Lett. — 1994. — v.77, №2-3. — p.85-93.
5.  Becraft W.R. Diagnostic applications of artificial neural networks // Proceedings of 1993 International Joint Conference on Neural Networks, Nagoya, Japan, October 25-29, 1993. — Nagoya, 1993. — v.2. — p.2807-2810.
6.  Bedenbaugh P., Gerstein G.L. Rectification of correlation by a sigmoid non-linearity // Biol. Cybern. — 1994. — v.70, №3. — p.219-225.
7.  Berrios G.E., Chen E.Y. Recognizing psychiatric symptoms. Relevance to the diagnostic process // Br. J. Psychiatry. — 1993. V.163. — p.308-314.
8.  Cohen I.L., Sudhalter V., Landon-Jimenez D. et al. A neural network approach to the classification of autism // J. Autism Dev. Disord. — 1993. — v.23, №3. — p.443-466.
9.  Forrest D.V., Flory M.J., Anderson S. Neural network programming // N.Y.State J. Med. — 1991. — v.91, №12. — p.553.
10.Fu H.C., Shann J.J. A fuzzy neural network for knowledge learning // Int. J. Neural Syst. — 1994. — v.5, №1. — p.13-22.
11.Galushkin A.I., Savushkin S.A. Neural Network expert system // The RNNS-IEEE Symposium on Neuroinformatics and Neurocomputers, Rostov-on-Don, September 1992 — v.2. — pp 1116-1123.
12.Galushkin A.I., Sudarikov V.A., Shabanov E.V. Neuromathematic: the methods of solving problems on neurocomputers // The RNNS-IEEE Symposium on Neuroinformatics and Neurocomputers, Rostov-on-Don, September 1992 — v.2. — pp 1179-1188.
13.Modai I., Stoler M., Inbar-Saban N. et al. Clinical decisions for psychiatric inpatients ant their evaluation by a trained neural network // Methods Inf. Med. — 1993 — v.32, №5. — p.396-399.
14.Sima J., Neruda R. Neural networks as expert systems // Neural Network Worl. — 1992 — v.2, №6. — p.775-783.
15.Sitting D.F., Orr J.A. A parallel implementation of the backward error propagation neural network training algorithm: experiments in event identification // Comput. Biomed Res. — 1992. — v.25, №6. — p.547-561.
16.Аванесов В.С. Тесты в социологическом исследовании. — М., 1982 — 199с.
17.Айвазян С.А., Бежаева З.И., Староверов О.В. Классификация многомерных наблюдений. — М.: Статистика, 1974 — с. 240.
18.Айвазян С.А., Бухштабер В.М., Енюков С.И., Мешалкин Л.Д. Прикладная статистика. Классификация и снижение размерности. — М.: Финансы и статистика, 1989 — с.607
19.Айвазян С.А., Енюков И.С., Мешалкин Л.Д. Прикладная статистика. Статистическое оценивание зависимостей. — М.: Финансы и статистика, 1983 — с.471.
20.Анастази А. Психологическое тестиование. — М. Педагогика, 1982 — кн.1 — с.320, кн.2 — с.360.
21.Ануфриев А.Ф. Психодиагностика как деятельность и научная дисциплина. // Вопросы психологии — 1994 — №2 — с.123-131.
22.Барцев С.И. Некоторые свойства адаптивных сетей. — Красноярск, 1987. — 17 с. — (Препринт / ИФ СО АН СССР; № 71Б.)
23.Барцев С.И., Гилев С.Е., Охонин В.А. Принцип двойственности в организации адаптивных систем обработки информации. // Динамика химических и биологических систем. — Новосибирск: Наука. Сибирское отделение, 1989. — с.6-55.
24.Бодалев А.А. О взаимосвязи общения и отношения // Вопросы психологии — 1994 — №1 — с.122-126.
25.Боннер Р.Е. Некоторые методы классификации // Автоматический анализ изображений. — М.: Мир, 1969 — с.205 — с.234.
26.Бурлачук Л.Ф., Коржова Е.Ю. К построению теории измеренной индивидуальности в психодиагностике. // Вопросы психологии — 1994 — №5 — с.5-12.
27.Бурлачук Л.Ф., Морозов С.М. Словарь — справочник по психологической диагностике. — Киев: Наукова думка, 1989 — с.200.
28.Буч Г. Объектно-ориентированное программирование с примерами применения. — М.: Конкорд, 1992. — с.36.
29.Вапник В.Н., Глазкова Т.Г., Кощеев.В.А., Михальский А.И., Червоненкис А.Я. Алгоритмы и программы восстановления зависимостей. — М.: Наука, 1984, с.8-11, 27-32, 42-55.
30.Вапник В.Н., Червоненкис А.Ф. Теория распознавания образов. — М.: Наука, 1974.
31.Гаврилова Т.А., Червинская К.Р., Яшин А.М. Формирование поля знаний на примере психодиагностики. // Известия АН СССР. Техническая кибернетика. — 1988. — №5. — с.72-85.
32.Гилев С.Е. Сравнение характеристических функций нейронов. // Тезисы докладов III всероссийского семинара «Нейроинформатика и ее приложения». — Красноярск: изд. КГТУ, 1995 — с.82.
33.Гилев С.Е., Горбань А.Н., Миркес Е.М. и др. Определение значимости обучающих параметров для принятия нейронной сетью решения об ответе. // Нейроинформатика и нейрокомпьютеры: Тезисы докладов рабочего семинара, 8-11 октября 1993 г. — Красноярск: Институт биофизики СО РАН, 1993. — с.8.
34.Гилев С.Е., Коченов Д.А., Миркес Е.М., Россиев Д.А. Контрастирование, оценка значимости параметров, оптимизация их значений и их интерпретация в нейронных сетях // Тезисы докладов III всероссийского семинара «Нейроинформатика и ее приложения». — Красноярск: изд. КГТУ, 1995 — с.66-78.
35.Гласс Дж., Стэнли Дж. Статистические методы в педагогике и психологии. — М.: Прогресс, 1976 — 495с.
36.Горбань А.Н.  Обучение нейронных сетей.- М. СП ПараГраф — 1990.
37.Горбань А.Н., Миркес Е.М. Кодирование качественных признаков для нейросетей // Тезисы докладов II всероссийского семинара «Нейроинформатика и ее приложения». — Красноярск: изд. КГТУ, 1994 — с.29.
38.Горбань А.Н., Миркес Е.М. Компоненты нейропрограмм. // Тезисы докладов III всероссийского семинара «Нейроинформатика и ее приложения». — Красноярск: изд. КГТУ, 1995 — с.17.
39.Горбань А.Н., Миркес Е.М. Контрастирование нейронных сетей. // Тезисы докладов III всероссийского семинара «Нейроинформатика и ее приложения». — Красноярск: изд. КГТУ, 1995 — с.78-79.
40.Горбань А.Н., Миркес Е.М. Функциональные компоненты нейрокомпьютера. // Тезисы докладов III всероссийского семинара «Нейроинформатика и ее приложения». — Красноярск: изд. КГТУ, 1995 — с.79-90.
41.Горбань А.Н., Россиев Д.А. Нейронные сети на персональном компьютере. — Новосибирск: Наука, 1996 — с.144.
42.Грановская Р.М., Березная И.Я. Интуиция и искусственный интеллект. — Л.: ЛГУ, 1991. — 272с.
43.Губерман Т.А., Ямпольский Л.Т. Применение алгоритмов распознавания образов в психодиагностике // Вопросы психологии, 1983 №5. — с.118-125.
44.Дантенманн Дж., Мишел Дж., Тейлор Д. Программирование в среде Delphi. — Киев: DiaSoft, 1995.
45.Дарахвелидзе  П., Марков Е. Delphi — среда визуального программирования. — Санкт-Петербург: BHV, 1996.
46.Деннис Дж. Мл., Шнабель Р. Численные методы безусловной оптимизации и решения нелинейных уравнений. — М.: Мир, 1988 — с.440.
47.Дюк В.А. Компьютерная психодиагностика. — Санкт-Петербург: Братство, 1994.
48.Елисеева И.И., Рукавишников В.О. Группировка, корреляция, распознавание образов (Статистические методы классификации и измерения связей). — М.: Статистика, 1977 — с.144.
49.Енюков И.С. Методы, алгоритмы, программы многомерного статистического анализа: Пакет ППСА. — М.: Финансы и статистика, 1986 — с.232
50.Житков Г.Н. Некоторые методы автоматической классификации.// Структурные методы опознавания и автоматическое чтение. М.: ВИНИТИ, 1970 — с.68 — с.85.
51.Журавлев Ю.И. Непараметрические задачи распознавания образов // Кибернетика — №6 — 1976 — с.93-103.
52.Журавлев Ю.И., Гуревич И.Б. Распознавание образов и анализ изображений // Искусственный интеллект. — В 3-х кн. Кн.2. — М.: Радио и связь, 1990 — с. 304.
53.Журавлев Ю.И., Об алгебраическом подходе к решению задач распознавания и классификации // Проблемы кибернетики. М.: Наука, 1978, вып.33 — с.5-68.
54.Забродин Ю.М., Похилько В.И., Шмелев А.Г. Статистические и семантические проблемы конструирования и адаптации многофакторных личностных тест-опросников. // Психологический журнал, т.8, №6, 1987 — с.79-89.
55.Загоруйко Н.Г., Елкина В.Н., Лбов Г.С. Алгоритмы обнаружения эмпирических закономерностей. — Новосибирск: Наука, 1985 — 110с.
56.Зеличенко А.И. Интеллектуальные системы и психологическое знание. // В книге: Компьютеры и познание. — М.: Наука, 1990 — с.69-86.
57.Кабанов М.М., Личко А.И., Смирнов В.М. Методы  психологической диагностики и коррекции в клинике. М. Медицина — 1983
58.Килверт Ч. Энциклопедия Delphi 2. Киев: DiaSoft, 1996.
59.Коченов Д.А., Россиев Д.А. Аппроксимация функций класса  нейросетевыми предикторами // Тезисы докладов рабочего семинара «Нейроинформатика и нейрокомпьютеры», Красноярск, 8-11 октября 1993 г… — Красноярск, 1993 — с.13.
60.Кулагин Б.В., Сергеев С.Т. Типологический подход к исследованию проблемы профотбора // Психологический журнал, 1989, т.10, №1
61.Логико-гносеологические и методологические проблемы прогноза. — М., 1986.
62.Мельников А.В. О применении персональных компьютеров в психологии. // Психологический журнал, т.10, №1, 1989 — с.56-61.
63.Миллер Т., Пауэл Д. И др. Использование Delphi 3. — Киев: Диалектика, 1997 — 768 с.
64.Минский М., Пайперт С. Персептроны. — М.: Мир, 1971
65.Миркин Б.Г. Анализ качественных признаков и структур. — М.: Статистика, 1980. — с.319.
66.Налимов В.В. Теория эксперимента. — М: Наука, 1971 — с.208.
67.Нейроинформатика и ее приложения // Материалы II всероссийского семинара. Красноярск, 1995.
68.Нейроинформатика и ее приложения // Материалы III всероссийского семинара. Красноярск, 1996.
69.Нейроинформатика и ее приложения // Материалы всероссийского семинара. Красноярск, 1994.
70.Нейропрограммы / сборник статей под ред. А.Н. Горбаня //Красноярск, КГТУ, 1994.
71.Немов Р.С. Психология. / В 3-х кн. Кн 2. Психология образования — М.: Просвещение, 1995.
72.Немов Р.С. Психология. / В 3-х кн. Кн 3. Экспериментальная педагогическая психология и психодиагностика — М.: Просвещение, 1995.
73.Никифоров А.М., Фазылов Ш.Х. Методы и алгоритмы преобразования типов признаков в задачах анализа данных. — Ташкент: Фан, 1988 — с. 132.
74.Оганезов А.С., Суменко О.В. Автоматизация исследования личности по психологической методике MMPI с синтезом словесного диагноза. // Вопросы психологии, 1990, №1. — с.154-157.
75.Орлик С. Секреты Delphi на примерах. — М.: Бином, 1996 — 316с.


Не сдавайте скачаную работу преподавателю!
Данный реферат Вы можете использовать для подготовки курсовых проектов.

Поделись с друзьями, за репост + 100 мильонов к студенческой карме :

Пишем реферат самостоятельно:
! Как писать рефераты
Практические рекомендации по написанию студенческих рефератов.
! План реферата Краткий список разделов, отражающий структура и порядок работы над будующим рефератом.
! Введение реферата Вводная часть работы, в которой отражается цель и обозначается список задач.
! Заключение реферата В заключении подводятся итоги, описывается была ли достигнута поставленная цель, каковы результаты.
! Оформление рефератов Методические рекомендации по грамотному оформлению работы по ГОСТ.

Читайте также:
Виды рефератов Какими бывают рефераты по своему назначению и структуре.

Сейчас смотрят :

Реферат Вопросы для подготовки к зачету по дисциплине «Контроль и ревизия»
Реферат Intelligence Tests Essay Research Paper INTELLIGENCE TESTSIt
Реферат Overpopulation Essay Research Paper OverpopulationThe battle to 2
Реферат Історія відкриття та дослідження пітекантропів
Реферат Э.А. Павлюченко "В добровольном изгнании"
Реферат История болезни по педиатрии - Железодефецитная анемия тяжелой степени
Реферат 1. Водное занятие. Основные понятия и термины музееведения
Реферат Как сформировать мотивацию к добровольческой деятельности у молодежи?
Реферат Проблемы преподавания экономической теории в вузе
Реферат Christianity Essay Research Paper Christianity AnalysisChristianity was
Реферат Роль речевого этикета во взаимоотношениях руководителя и подчиненного
Реферат Earthquakes Essay Research Paper Every year there
Реферат Аннотация дисциплины «Основы анализа состава вещества»
Реферат 4. Задания для самоконтроля по теме: Макроэкономическая нестабильность. Инфляция
Реферат Інформаційні технології багатокритеріального експертного оцінювання альтернатив у соціальних системах