СОДЕРЖАНИЕ
Введение
1. Дискриминантныйанализ как раздел многомерного статистического анализа
1.1 Методы классификации с обучением
1.2 Линейный дискриминантный анализ 2. Дискриминантныйанализ при нормальном законе распределения показателей
3. Примеры решения задач дискриминантныманализом
3.1 Применениедискриминантного анализа при наличии двух обучающих выборок
3.2 Примеррешения задачи дискриминантным анализом в системе STATISTICA
Заключение
Списокиспользованных источников
ВВЕДЕНИЕ
Метод дискриминантногоанализа впервые был применен в сфере банковской деятельности, а именно — вкредитном анализе. Здесь наиболее четко прослеживается основной подход метода,подразумевающий привлечение прошлого опыта: необходимо определить, чемотличаются заемщики, вернувшие в срок кредит, от тех, кто этого не сделал.Полученная информация должна быть использована при решении судьбы новых заемщиков.Иначе говоря, применение метода имеет цель: построение модели, предсказывающей,к какой из групп относятся данные потребители, исходя из набора предсказывающихпеременных (предикторов), измеренных в интервальной шкале. Дискриминатный анализсвязан со строгими предположениями относительно предикторов: для каждой группыони должны иметь многомерное нормальное распределение с идентичнымиковариационными матрицами.
Основные положениядискриминантного анализа легко понять из представления исследуемой области, каксостоящей из отдельных совокупностей, каждая из которых характеризуетсяпеременными с многомерным нормальным распределением. Дискриминантный анализпытается найти линейные комбинации таких показателей, которые наилучшим образомразделяют представленные совокупности.
При использовании методадискриминантного анализа главным показателем является точность классификации, иэтот показатель можно легко определить, оценив долю правильноклассифицированных при помощи прогностического уравнения наблюдений. Еслиисследователь работает с достаточно большой выборкой, применяется следующийподход: выполняется анализ по части данных (например, по половине), а затемпрогностическое уравнение применяется для классификации наблюдений во второйполовине данных. Точность прогноза оценивается, т.е. происходит перекрестнаяверификация. В дискриминантном анализе существуют методы пошагового отборапеременных, помогающие осуществить выбор предсказывающих переменных.
Итак, цельюдискриминантного анализа является получение прогностического уравнения, котороеможно будет использовать для предсказания будущего поведения потребителей.Например, в отношении клиентов банка существует необходимость на основенекоторого набора переменных (возраст, годовой доход, семейное положение ит.п.) уметь относить их к одной из нескольких взаимоисключающих групп сбольшими или меньшими рисками не возврата кредита. Исследователь располагаетнекоторыми статистическими данными (значениями переменных) в отношении лиц,принадлежность которых к определенной группе уже известна. В примере с банкомэти данные будут содержать статистику по уже предоставленным кредитам синформацией о том, вернул ли заемщик кредит или нет. Необходимо определитьпеременные, которые имеют существенное значение для разделения наблюдений нагруппы, и разработать алгоритм для отнесения новых клиентов к той или инойгруппе.
1. ДИСКРИМИНАНТНЫЙ АНАЛИЗ1.1 Методы классификации с обучением
Дискриминантный анализ является разделом многомерногостатистического анализа, который включает в себя методы классификациимногомерных наблюдений по принципу максимального сходства при наличии обучающихпризнаков.
В дискриминантном анализе формулируется правило, по которому объектыподмножества подлежащего классификации относятся к одному из уже существующих(обучающих) подмножеств (классов). На основе сравнения величины дискриминантнойфункции классифицируемого объекта, рассчитанной по дискриминантным переменным,с некоторой константой дискриминации.
В общем случае задачаразличения (дискриминации) формулируется следующим образом. Пусть результатомнаблюдения над объектом является реализация k — мерного случайного вектора />. Требуется установитьправило, согласно которому по наблюденному значению вектора х объект относят кодной из возможных совокупностей />. Для построения правиладискриминации все выборочное пространство R значений вектора х разбивается на области/> так, чтопри попадании х в />объект относят к совокупности />.
Правило дискриминациивыбирается в соответствии с определенным принципом оптимальности на основе априорнойинформации о совокупностях />извлечения объекта из />. При этомследует учитывать размер убытка от неправильной дискриминации. Априорнаяинформация может быть представлена как в Виде некоторых сведений о функции мерногораспределения признаков в каждой совокупности, так и в виде выборок из этихсовокупностей. Априорные вероятности /> могут быть либо заданы, либо нет.Очевидно, что рекомендации будут тем точнее, чем полнее исходная информация.
С точки зрения применениядискриминантного анализа наиболее важной является ситуация, когда исходнаяинформация о распределении представлена выборками из них. В этом случае задачадискриминации ставится следующим образом.
Пусть /> выборка из совокупности/>, причемкаждый /> — йобъект выборки представлен k – мерным вектором параметров />. Произведенодополнительное наблюдение />над объектом, принадлежащим однойиз совокупностей />. Требуется построить правилоотнесения наблюдения х к одной из этих совокупностей.
Обычно в задачеразличения переходят от вектора признаков, хapaктeризующих объект, к линейнойфункции от них, дискриминантной функции гиперплоскости, наилучшим образомразделяющей совокупность выборочных точек.
Наиболее изучен случай,когда известно, что распределение векторов признаков в каждой совокупностинормально, но нет информации о параметрах этих распределений. Здесь естественнозаменить неизвестные параметры распределения в дискриминантной функции ихнаилучшими оценками. Правило дискриминации можно основывать на отношенииправдоподобия.
Непараметрические методыдискриминации не требуют знаний о точном функциональном виде распределений ипозволяют решать задачи дискриминации на основе незначительной априорнойинформации о совокупностях, что особенно ценно для практических применений.
В параметрических методахэти точки используются для оценки параметров статистических функцийраспределения. В параметрических методах построения функции, как правило,используется нормальное распределение.
1.2 Линейныйдискриминантный анализ
Выдвигаются предположения:
1) имеются разныеклассы объектов;
2) каждый классимеет нормальную функцию плотности от k переменных
/>;
/>, (1.1)
rде µ (i) — векторматематических ожиданий переменных размерности k;
/> — ковариационная матрица при n=n;
/> — обратная матрица.
Матрица /> — положительноопределена.
В случае если параметрыизвестны дискриминацию можно провести следующим образом.
Имеются функции плотности/> нормальноpacпределенных классов. Задана точка х в пространстве k измерений. Предполагая,что имеет наибольшую плотность, необходимо отнести точку х к i-му классу. Существуетдоказательство, что если априорные вероятности для определяемых точек каждогокласса одинаковы и потери при неправильной классификации i-й группы в качествеj-й не зависят от i и j, то решающая процедура минимизирует ожидаемые потерипри неправильной классификации.
Ниже приведен примероценки параметра многомерногo нормального pacпределения µ и Σ.
µ и Σ мoгyт бытьоценены по выборочным данным: />и /> для классов. Задано l выборок /> из некоторых классов. Математическиеожидания /> мoгyтбыть оценены средними значениями
/> (1.2)
Несмещенные оценки элементовковариационной матрицы Σ есть
/> (1.3)
Cледовательно, можно определить/>и />по l выборкам в каждом классе при помощи(1.2), (1.3), получив оценки, точку х необходимо отнести к классу, для которойфункция f(х) максимальна.
Необходимо ввестипредположение, что все классы, среди которых должна проводиться дискриминация,имеют нормальное распределение с одной и той же ковариационной матрицей Σ.
В результате существенноупрощается выражение для дискриминантной функции.
Класс, к которому должнапринадлежать точка х, можно определить на
основе неравенства
/>/> (1.4)
Необходимовоспользоваться формулой (1.1) для случая, когда их ковариационные матрицыравны:/>, а />( есть векторматематических ожиданий класса i. Тогда (1.4) можно представить неравенством ихквадратичных форм
/> (1.5)
Если имеется два вектораZ и W, то скалярное произведение можно записать />. В выражении (1.5) необходимоисключить />справаи слева, поменять у всех членов суммы знаки. Теперь преобразовать
/>
Аналогично проводятсяпреобразования по индексу i. Необходимо сократить правую и левую частьнеравенства (1.5) на 2 и, используя запись квадратичных форм, получается
/> (1.6)
Необходимо ввестиобозначения в выражение (1.6):
/>
Тогда выражение (1.6)примет вид
/>(1.7)
Следствие: проверяемаяточка х относится к классу i, для которого линейная функция
/>(1.8)
Преимущество методалинейной дискриминации Фишера заключается в линейности дискриминантной функции(1.8) и надежности оценок ковариационных матриц классов.
Пример
Имеются два класса спараметрами/>и />. Повыборкам из этих совокупностей объемом n1 n2 получены оценки /> и />. Первоначально проверяется гипотеза о том, чтоковариационные матрицы /> />равны. В случае если оценки /> и />статистически неразличимы, топринимается, что /> и строится общая оценка />, основанная на суммарной выборке объемом n1+n2, после чего строится линейнаядискриминантная функция Фишера (1.8).
2. ДИСКРИМИНАНТНЫЙАНАЛИЗ ПРИ НОРМАЛЬНОМ ЗАКОНЕ РАСПРЕДЕЛЕНИЯ ПОКАЗАТЕЛЕЙ
Имеются две генеральные совокупности Х и У, имеющие трехмерный нормальныйзакон распределения с неизвестными, но равными ковариационными матрицами.
Алгоритм выполнения дискриминантного анализа включает основные этапы:
1. Исходные данные представляются либо в табличной форме в виде qподмножеств (обучающих выборок) Mk и подмножества М0объектов подлежащих дискриминации, либо сразу в виде матриц X(1),X(2), ...,X(q), размером (nk×p):
Таблица 1
Номер подмножества Mk (k = 1, 2, ..., q)
Номер объекта, i
(i = 1, 2, ..., nk)
Свойства (показатель),j (j = 1, 2, ..., p)
x1
x2 …
x0
Подмножество M1 (k = 1) 1
/>
/> …
/> 2
/>
/> …
/> … … … … …
n1
/>
/> …
/>
Подмножество M2 (k = 2) 1
/>
/> …
/> 2
/>
/> …
/> … … … … …
n2
/>
/> …
/> … … … … … …
Подмножество Mq (k = q) 1
/>
/> …
/> 2
/>
/> …
/> … … … … …
nq
/>
/> …
/>
Подмножество M0, подлежащее дискриминации 1
/>
/> …
/> 2
/>
/> …
/> … … … … …
m
/>
/> …
/>
/>
где X(k) — матрицы с обучающими признаками (k= 1, 2, ..., q),
X(0) матрица новых m-объектов, подлежащих дискриминации (размером m×p),
р— количество свойств, которыми характеризуется каждый i-й объект.
Здесь должно выполняться условие: общее количество объектов Nмножества М должно быть равно сумме количества объектов m (вподмножестве M0), подлежащих дискриминации, и общегоколичества объектов /> в обучающих подмножествах:/>, где q — количество обучающих подмножеств (q≥2). В реальной практикенаиболее часто реализуется случай q=2, поэтому и алгоритмдискриминантного анализа приведен для данного варианта.
2. Определяются />элементы векторов />средних значений по каждомуj-му признаку для i объектов внутри k-го подмножества (k= 1, 2):
/>
Результаты расчета представляются в виде векторов столбцов/>:
/>
3. Для каждого обучающего подмножества рассчитываются ковариационныематрицы S(k) (размером p×p):
/>
4. Рассчитывается объединенная ковариационная матрица />по формуле:
/>
5. Рассчитывается матрица />обратная к объединенной ковариационнойматрице/>:
/>
где |/>|—определитель матрицы />, (причем/>), /> - присоединенная матрица,элементы которой являются алгебраическими дополнениями элементов матрицы />.
6. Рассчитывается вектор-столбец /> дискриминантных множителей сучетом всех элементов обучающих подмножеств по формуле: />
Данная расчетная формула получена с помощью метода наименьших квадратовиз условия обеспечения наибольшего различия между дискриминантными функциями.Наилучшее разделение двух обучающих подмножеств обеспечивается сочетаниемминимальной внутригрупповой вариации и максимальной межгрупповой вариации.
7. По каждому i-му объекту (i = 1, 2, ..., N)множества М определяется соответствующее значение дискриминантнойфункции:
/>
8. По совокупности найденных значений F(k)рассчитываются средние значения для каждого подмножества Mk:
/>
9. Определяется общее среднее (константа дискриминации) для дискриминантныхфункций
/>
10. Выполняется распределение (дискриминация) объектов подмножества М0подлежащих дискриминации по обучающим выборкам М1 и М2.С этой целью рассчитанные и п. 7 по каждому i-му объекту значениядискриминантных функций
/>
сравниваются с величиной />общего среднего. На основесравнения данный объект относят к одному из обучающих подмножеств.
Если />,то i-й объект подмножества М0относят к подмножеству М1,при />>0и к подмножеству М2 при />, то заданный объектотносят к подмножеству М1, при />М2в противном случае.
11. Далее делается оценка качества распределения новых объектов, для чегооценивается вклад переменных в дискриминантную функцию.
Влияние признаков на значение дискриминантной функции и результатыклассификации может оцениваться по дискриминантным множителям (коэффициентамдискриминации), по дискриминантным нагрузкам признаков или по дискриминантнойматрице.
Дискриминантные множители зависят от масштабов единиц измерения признаков,поэтому они не всегда удобны для оценки.
Дискриминантные нагрузки более надежны в оценке признаков, они вычисляются какпарные линейные коэффициенты корреляции между рассчитанными уровнямидискриминантной функции F и признаками, взятыми для ее построения.
Дискриминантная матрица характеризует меру соответствия результатовклассификации фактическому распределению объектов по подмножествам ииспользуется для оценки качества анализа. В этом случае дискриминантная функцияF формируется по данным объектов (с измеренными p признаками)обучающих подмножеств, а затем проверяется качество этой функции путемсопоставления фактической классовой принадлежности объектов с той, что полученав результате формальной дискриминации.
3. ПРИМЕРЫДИСКРИМИНАНТНОГО АНАЛИЗА
3.1 Применение дискриминантного анализа при наличии двухобучающих выборок (q=2)
Имеются данные по двум группам промышленных предприятий отрасли: Х1 — среднегодовая стоимость основных производственных фондов, млн. д.ед.; Х2— среднесписочная численность персонала, тыс. чел.; Х3 —балансовая прибыль млн. д.ед.
Исходные данные представлены в таблице 2.
Таблица 2
Номер группы Mk (k =1, 2)
Номер предприятия, i
(i = 1, 2, ..., nk)
Свойства (показатель),j
(j = 1, 2, ..., p)
Х1
Х2
Х3
Группа 1, M1
(k = 1) 1 224,228 17,115 22,981 2 151,827 14,904 21,481 3 147,313 13,627 28,669 4 152,253 10,545 10,199
Группа 2, M2
(k = 2) 1 46,757 4,428 11,124 2 29,033 5,51 6,091 3 52,134 4,214 11,842 4 37,05 5,527 11,873 5 63,979 4,211 12,860
Группа предприятий M0, подлежащих дискриминации 1 55,451 9,592 12,840 2 78,575 11,727 15,535 3 98,353 17,572 20,458 /> /> /> /> /> />
Необходимопровести классификацию (дискриминацию) трех новых предприятий, образующихгруппу М0с известными значениями исходных переменных.
Решение:
1. Значения исходных переменных для обучающих подмножеств M1и M2 (групп предприятий) записываются в виде матриц X(1)и X(2) :
/>
/>
и для подмножества M0группы предприятий, подлежащихклассификации в виде матрицы X(0):
/>
Общее количество предприятий, составляющих множество М, будетравно N = 3+4+5 = 12 ед.
2. Определяются элементы векторов />средних значений по jпризнакам для i-х объектов по каждой k-й выборке (k = 1,2), которые представляются в виде двух векторов />(по количеству обучающих выборок):
/>
3. Для каждого обучающего подмножества M1 и M2рассчитываются ковариационные матрицы Sk (размером р×р):
/>
/>
4. Рассчитывается объединенная ковариационная матрица:
/>/>
5. Рассчитывается матрица />обратная к объединенной ковариационнойматрице:
/>
6. Рассчитываются дискриминантные множители (коэффициенты дискриминантнойфункции) по всем элементам обучающих подмножеств:
/>
7. Для каждого i-го объекта k-го подмножества Мопределяется значение дискриминантной функции:
F1(1)=0,104743×224,228+2,046703×17,115+(-0,13635)×22,981=55,38211;
F2(1)=0,104743×151,827+2,046703×14,904+(-0,13635)×21,481=43,47791;
F3(1)=0,104743×147,313+2,046703×13,627+(-0,13635)×28,669=39,41138;
F4(2)=0,104743×152,253+2,046703×10,545+(-0,13635)×10,199=36,13924;
F1(2)=0,104743×46,757+2,046703×4,428+(-0,13635)×11,124=12,44351;
………………………………………………………………………………..
F5(2)=0,104743×63,979+2,046703×4,211+(-0,13635)×12,860=13,56655.
8. По совокупности найденных значений F(k)рассчитываются средние значения />для каждого подмножества Mk:
/>
/>
9. Определяется общее среднее (константа дискриминации) для дискриминантныхфункций:
/>
10. Выполняется распределение объектов подмножества М0по обучающим подмножествам М1 и М2, длячего по каждому объекту (i = 1, 2, 3) рассчитываются дискриминантныефункции:
F1(0)=0,104743×55,451+2,046703×9,592+(-0,13635)×12,840=23,68661
F2(0)=0,104743×78,575+2,046703×11,727+(-0,13635)×15,535=30,11366
F3(0)=0,104743×98,353+2,046703×17,572+(-0,13635)×20,458=23,68661
Затем рассчитанные значения дискриминантных функций F(0)сравниваются с общей средней F=28,3556.
Поскольку />, то i-й объектподмножества М0относят к подмножеству М1при/>> 0и к подмножеству М2 при />М0относятся к М1,а предприятие 1 относится к М2.
Если бы выполнялось условие />, то объекты М0относились к подмножеству М1, при /> и к подмножеству М2в противном случае.
11. Оценку качества распределения новых объектов выполним путем сравненияс константой дискриминации Fзначений дискриминантных функций Fi(k)=обучающихподмножеств М1 и М2. Поскольку для всех найденныхзначений выполняются неравенства/>, и />, то можно предположить оправильном распределении объектов и уже существующих двух классах и верновыполненной классификации объектов подмножества М0.
3.2 Пример решения задачи дискриминантным анализом в системе STATISTICA
Исходя из данных по 10странам (рис. 3.1), которые были выбраны и отнесены к соответствующим группамэкспертным методом (по уровню медицинского обслуживания), необходимо по рядупоказателей классифицировать еще две страны: Молдавия и Украина.
Исходными показателями послужили:
Х1 – Количество человек,приходящихся на одного врача;
Х2 – Смертность на 1000человек;
Х3 – ВВП, рассчитанный попаритету покупательной способности на душу населения (млн. $);
Х4 – Расходы наздравоохранение на душу населения ($).
Уровень медицинскогообслуживания стран подразделяется на:
— высокий;
— средний(удовлетворительный);
— низкий.
Кол-во чел. на 1 врача
Расх. на здрав.
ВВП
Смертность
Класс
Азербайджан 256 99 3000 9,6 низкий
Армения 198 152 3000 9,7 низкий
Белоруссия 222 157 7500 14 высокий
Грузия 182 152 4600 14,6 удовлетворительный
Казахстан 265 154 5000 10,6 удовлетворительный
Киргизия 301 118 2700 9,1 низкий
Россия 235 159 7700 13,9 высокий
Таджикистан 439 100 1140 8,6 низкий
Туркмения 320 125 4300 9 удовлетворительный
Узбекистан 299 116 2400 8 низкий
Рис. 3.1
Используя вкладку анализ,далее многомерный разведочный анализ, необходимо выбрать дискриминантныйанализ. На экране появится панель модуля дискриминантный анализ, в которомвкладка переменные позволяет выбрать группирующую и независимые переменные. Вданном случае группирующая переменная 5 (класс), а независимыми переменнымивыступят 1-4 (кол-во человек на 1 врача; расходы на здравоохранение; ВВП надушу населения; смертность).
В ходе вычисленийсистемой получены результаты:
Вывод результатовпоказывает:
— число переменных вмодели – 4;
— значение лямбды Уилкса– 0,0086739;
— приближенное значение F – статистики, связанной с лямбдойУилкса – 9,737242;
— уровень значимости F – критерия для значения 9,737242.
Значение статистики Уилксалежит в интервале [0,1]. Значения статистики Уилкса, лежащие около 0,свидетельствуют о хорошей дискриминации, а значения, лежащие около 1,свидетельствуют о плохой дискриминации. По данным показателя значение лямбдыУилкса, равного 0,0086739 и по значению F – критерия равного 9,737242, можно сделатьвывод, что данная классификация корректная.
В качестве проверки корректностиобучающих выборок необходимо посмотреть результаты матрицы классификации (рис.3.2). Матрица классификации. Строки: наблюдаемые классы Столбцы: предсказанные классы
Процент
низкий
высокий
удовлетв
низкий 100,0000 5
высокий 100,0000 2
удовлетв 100,0000 3
Всего 100,0000 5 2 3
Рис. 3.2
Из матрицы классификацииможно сделать вывод, что объекты были правильно отнесены экспертным способом к выделеннымгруппам. Если есть объекты, неправильно отнесенные к соответствующим группам,можно посмотреть классификацию наблюдений (рис.3.3). Классификация наблюдений. Неправильные классификации отмечены *
Наблюд.
1
2
3
Азербайджан низкий низкий удовлетв высокий
Армения низкий низкий удовлетв высокий
Белоруссия высокий высокий низкий удовлетв
Грузия удовлетв удовлетв низкий высокий
Казахстан удовлетв удовлетв низкий высокий
Киргизия низкий низкий удовлетв высокий
Россия высокий высокий низкий удовлетв
Таджикистан низкий низкий удовлетв высокий
Туркмения удовлетв удовлетв низкий высокий
Узбекистан низкий низкий удовлетв высокий
Рис. 3.3
В таблице классификациинаблюдений, некорректно отнесенные объекты помечаются звездочкой (*). Таким образом,задача получения корректных обучающих выборок состоит в том, чтобы исключить изобучающих выборок те объекты, которые по своим показателям не соответствуютбольшинству объектов, образующих однородную группу.
В результате проведенногоанализа общий коэффициент корректности обучающих выборок должен быть равен 100%(рис. 3.2).
На основе полученных обучающихвыборок можно проводить повторную классификацию тех объектов, которые не попалив обучающие выборки, и любых других объектов, подлежащих группировке.
Для этого необходимо в окнедиалогового окна результаты анализа дискриминантных функций нажать кнопку функцииклассификации. Появится окно (рис. 3.4), из которого можно выписатьклассификационные функции для каждого класса.Функции классификации
низкий
высокий
удовлетв
Кол-во чел на 1 врача 1,455 2,35 1,834
Расх на здрав 1,455 1,98 1,718
ВВП 0,116 0,20 0,153
Смертность 29,066 46,93 36,637
Конст-та -576,414 -1526,02 -921,497
Рис. 3.4
Таблица 3
Классификационныефункции для каждого классаНизкий класс = -576,414+1,455*кол-во чел на 1 врача+1,455*расх на здра+0,116*ВВП+29,066*смертность Высокий класс =-1526,02+2,35*кол-во чел на 1 врача+1,98*расх на здрав+0,20*ВВП+46,93*смертность Удовлетворительный класс =-921,497+1,834*кол-во чел на 1 врача+1,718*расх на здра+0,153*ВВП+36,637*смертность
С помощью этих функций можнобудет в дальнейшем классифицировать новые случаи. Новые случаи будут относитьсяк тому классу, для которого классифицированное значение будет максимальное.
Необходимо определить принадлежностьстран Молдавия и Украина, подставив значения соответствующих показателей вформулы (Таблица 4).
Таблица 4Страна Кол-во человек на 1 врача Расходы на здравоохранение ВВП на душу населения Смертность Высокий Низкий Удовлетворительный Класс Молдавия 251 143 2500 12,6 438,29
653,09 628,64 Низкий Украина 224 131 3850 16,4 880,23 863,39
904,27 Удовл.
ЗАКЛЮЧЕНИЕ
В данной курсовой работебыл рассмотрен такой метод многомерного статистического анализа какдискриминантный. В дискриминантном анализе изучены: основные понятия, цели изадачи дискриминантного анализа. А также определение числа и видадискриминирующих функций, и классификация объектов с помощью функциирасстояния.
Для данного методаприведены примеры решения задач с использованием ППП STATISTICA.
СПИСОКИСПОЛЬЗОВАННЫХ ИСТОЧНИКОВ
1. Баранова, Т.А. Многомерныестатистические методы. Корреляционный анализ. [Текст]: Метод.указания / Иван. гос. хим.-технол. ун-т. / Т.А. Баранова. – Иваново, 9 — 40 с.
2. Буреева, Н.Н. Многомерныйстатистический анализ с использованием ППП “STATISTICA” [Текст] /Н.Н. Буреева. — Нижний Новгород, 2007. -112с.
3. Дубров,А.М. Многомерные статистические методы и основы эконометрики. [Текст]: Учебное пособие / А.М. Дубров. — М.: МЭСИ, 2008.- 79 с.
4. Калинина, В.Н. Введение вмногомерный статистический анализ [Текст]: Учебноепособие / В.Н. Калинина.- ГУУ. – М., 2010. – 66 с.