Московскийгосударственный социальный университет
Филиал в г.Минске
ПОНЯТИЕ ОКОРРЕЛЯЦИИ И КОРРЕЛЯЦИОННОМ АНАЛИЗЕ В ПСИХОЛОГИИ. ВИДЫ КОРРЕЛЯЦИЙ.
Контрольная работа №3 по предмету
«Основы психологического экспериментирования»
студентки 5 курса з/о
Минск 2005
СОДЕРЖАНИЕ
Введение
1. Понятие корреляции
2. Видыкорреляций
3. Корреляционныйанализ
3.1 Коэффициенткорреляции рангов Спирмена
3.2 Коэффициенткорреляции Пирсона
3.3 Случайодинаковых (равных) рангов
3.4 Расчетуровней значимости коэффициентов корреляции
3.5 Коэффициенткорреляции «φ»
3.6 Коэффициенткорреляции «τ» Кендалла
3.7 Бисериальныйкоэффициент корреляции
3.8 Рангово-бисериальныйкоэффициент корреляции
3.9 Корреляционноеотношение Пирсона η
3.10 Множественнаякорреляция
3.11 Частнаякорреляция
Заключение
Списокиспользованной литературы
ВВЕДЕНИЕ
Усиление интереса в психологической науке к потенциалу корреляционногоанализа обусловлено целым рядом причин. Во-первых, становится допустимымизучение широкого круга переменных, экспериментальная проверка которыхзатруднена или невозможна. Ведь по этическим соображениям, к примеру, нельзяпровести экспериментальные исследования самоубийств, наркомании, деструктивныхродительских воздействий, влияния авторитарных сект. Во-вторых, возможнополучение за короткое время ценных обобщений данных о больших количествахисследуемых лиц. В-третьих, известно, что многие феномены изменяют своюспецифику во время строгих лабораторных экспериментов. А корреляционный анализпредоставляет исследователю возможность оперировать информацией, полученной вусловиях, максимально приближенных к реальным. В-четвертых, осуществлениестатистического изучения динамики той или иной зависимости нередко создаетпредпосылки к достоверному прогнозированию психологических процессов и явлений.
Однако следует иметь в виду, что применение корреляционного методасвязано и с весьма существенными принципиальными ограничениями.
Так, известно, что переменные вполне могут коррелировать и при отсутствиипричинно-следственной связи между собой.
Это иногда возможно в силу действия случайных причин, при неоднородностивыборки, из-за неадекватности исследовательского инструментария поставленнымзадачам. Такая ложная корреляция способна стать, скажем, «доказательством»того, что женщины дисциплинированнее мужчин, подростки из неполных семей болеесклонны к правонарушениям, экстраверты агрессивнее интровертов и т. п.
Необходимо запомнить: наличие корреляций не является показателемвыраженности и направленности причинно-следственных отношений.
Другими словами, установив корреляцию переменных мы можем судить не одетерминантах и производных, а лишь о том, насколько тесно взаимосвязаныизменения переменных и каким образом одна из них реагирует на динамику другой (2).
1. ПОНЯТИЕ КОРРЕЛЯЦИИ.
Термин «корреляция» впервые применил французский палеонтолог Ж.Кювье, который вывел «закон корреляции частей и органов животных»(этот закон позволяет восстанавливать по найденным частям тела облик всегоживотного). В статистику указанный термин ввел в 1886 году английский биолог истатистик Френсис Гальтон (не просто связь – relation, а «как бысвязь» – co-relation). Однако точную формулу для подсчёта коэффициентакорреляции разработал его ученик – математик и биолог — Карл Пирсон (1857 –1936).(7).
Корреляционным называется исследование, проводимое для подтверждения илиопровержения гипотезы о статистической связи между несколькими (двумя и более)переменными. В психологии переменными могут выступать психические свойства,процессы, состояния и др.
«Корреляция» в прямом переводе означает«соотношение». Если изменение одной переменной сопровождаетсяизменением другой, то можно говорить о корреляции этих переменных. Наличиекорреляции двух переменных ничего не говорит о причинно-следственныхзависимостях между ними, но дает возможность выдвинуть такую гипотезу. Отсутствиеже корреляции позволяет отвергнуть гипотезу о причинно-следственной связипеременных. Различают несколько интерпретаций наличия корреляционной связимежду двумя измерениями:
1. Прямаякорреляционная связь. Уровень одной переменной непосредственно соответствуетуровню другой. Примером является закон Хика: скорость переработки информациипропорциональна логарифму от числа альтернатив. Другой пример: корреляциявысокой личностной пластичности и склонности к смене социальных установок.
2. Корреляция, обусловленнаятретьей переменной. Две переменные (а, с) связаны одна с другой через третью(в), не измеренную в ходе исследования. По правилу транзитивности, если есть R (а, Ь) и R (Ь, с), то R (а, с). Примером подобной корреляции являетсяустановленный психологами США факт связи уровня интеллекта с уровнем доходов.Если бы такое исследование проводилось в сегодняшней России, то результаты былибы иными. Очевидно, все дело в структуре общества. Скорость опознанияизображения при быстром предъявлении и словарный запас испытуемых такжеположительно коррелируют. Скрытой переменной, обусловливающей эту корреляцию,является общий интеллект.
3. Случайнаякорреляция, не обусловленная никакой переменной.
4. Корреляция,обусловленная неоднородностью выборки. Представим себе, что выборка, которую мыбудем обследовать, состоит из двух однородных групп. Например, мы хотимвыяснить, связана ли принадлежность к полу с уровнем экстраверсии. Считаем, что«измерение» пола трудностей не вызывает, экстраверсию же измеряем спомощью опросником Айзенка ETI-1.У нас две группы: мужчины-математики и женщины-журналистки. Не удивительно,если мы получим линейную зависимость между полом и уровнем экстраверсии —интроверсии: большинство мужчин будут интровертами, большинство женщин — экстравертами(3, 4).
2. ВИДЫ КОРРЕЛЯЦИЙ
Виды корреляционной связи между измеренными переменными могут бытьразличны: так корреляция бывает линейной и нелинейной, положительной иотрицательной. Она линейна, если с увеличением или уменьшением одной переменной,вторая переменная также растёт, либо убывает. Она нелинейна, если приувеличении одной величины характер изменения второй не линеен, а описываетсядругими законами (полиномиальная, гиперболическая). (5).
Если повышение уровня одной переменной сопровождается повышением уровнядругой, то речь идет о положительной корреляции. Чем выше личностнаятревожность, тем больше риск заболеть язвой желудка. Возрастание громкостизвука сопровождается ощущением повышения его тона.
Если рост уровня одной переменной сопровождается снижением уровня другой,то мы имеем дело с отрицательной корреляцией. По данным Зайонца, число детей всемье отрицательно коррелирует с уровнем их интеллекта. Чем боязливей особь,тем меньше у нее шансов занять доминирующее положение в группе.
Нулевой называетсякорреляция при отсутствии связи переменных. (2).
В психологии практически нет примеров строго линейных связей(положительных или отрицательных). Большинство связей — нелинейные.Классический пример нелинейной зависимости — закон Йеркса—Додсона:. возрастаниемотивации первоначально повышает эффективность научения, а затем наступаетснижение продуктивности (эффект «перемотивации»). Другим примеромявляется связь между уровнем мотивации достижений и выбором задач различной трудности.Лица, мотивированные надеждой на успех, предпочитают задания среднего диапазонатрудности — частота выборов на шкале трудности описывается колоколообразнойкривой.
/>
Примеры распределений испытуемых в пространстве двух признаков.
а) строгая положительная корреляция, б) сильная положительная корреляция,в) слабая положительная корреляция, г) нулевая корреляция, д) отрицательнаякорреляция, е) строгая отрицательная корреляция, ж) нелинейная корреляция, з)нелинейная корреляция.
3. КОРРЕЛЯЦИОННЫЙ АНАЛИЗ
Корреляционный анализ (от лат. «соотношение», «связь») применяется дляпроверки гипотезы о статистической зависимости значений двух или несколькихпеременных в том случае, если исследователь может их регистрировать (измерять),но не контролировать (изменять).(2). Задача корреляционного анализа сводится кустановлению направления (положительное или отрицательное) и формы (линейная,нелинейная) связи между варьирующими признаками, измерению ее тесноты, и,наконец, к проверке уровня значимости полученных коэффициентов корреляции.
Графики корреляционных зависимостей строят по уравнениям следующихфункций:
Yx= F(X) или Xy = F(Y),(формула 1)
которые называются уравнениями регрессии. Здесь Yx и Xy так называемые условные средниеарифметические переменных YиX.
Переменные X и Y могут быть измерены в разных шкалах,именно это определяет выбор соответствующего коэффициента корреляции.Представим соотношения между типами шкал, в которых могут быть измереныпеременные X и Y и соответствующими мерами связи в виде таблицы:Тип шкалы Мера связи Переменная X Переменная Y Интервальная или отношений Интервальная или отношений
Коэффициент Пирсона rxy Ранговая, интервальная или отношений Ранговая, интервальная или отношений
Коэффициент Спирмена ρxy Ранговая Ранговая Коэффициент Кендалла τ Дихотомическая Дихотомическая Коэффициент φ Дихотомическая Ранговая,
Рангово-бисериальный Rrb Дихотомическая Интервальная или отношений
Бисериальный Rбис Интервальная Ранговая Не разработан
3.1 Коэффициент корреляции Пирсона
Формула расчета коэффициента корреляции построена таким образом, что,если связь между признаками имеет линейный характер, коэффициент Пирсона точноустанавливает тесноту этой связи. Поэтому он называется также коэффициентомлинейной корреляции Пирсона. Если же связь между переменными X и Y не линейна, то Пирсон предложил для оценки тесноты этойсвязи так называемое корреляционное отношение.
Величина коэффициента линейной корреляции Пирсона не может превышать +1 ибыть меньше чем -1. Эти два числа +1 и -1 — являются границами для коэффициентакорреляции. Когда при расчете получается величина большая +1 или меньшая -1 —следовательно произошла ошибка в вычислениях.
Если коэффициент корреляции по модулю оказывается близким к 1, то этосоответствует высокому уровню связи между переменными. Так, в частности, прикорреляции переменной величины с самой собой величина коэффициента корреляциибудет равна +1. Подобная связь характеризует прямо пропорциональную зависимость.Если же значения переменной Х будут распложены в порядке возрастания, а те жезначения (обозначенные теперь уже как переменная Y) будут располагаться в порядке убывания, то в этом случаекорреляция между переменными X и Y будет равна точно -1. Такая величинакоэффициента корреляции характеризует обратно пропорциональную зависимость.
Знак коэффициента корреляции очень важен для интерпретации полученнойсвязи. Подчеркнем еще раз, что если знак коэффициента линейной корреляции —плюс, то связь между коррелирующими признаками такова, что большей величинеодного признака (переменной) соответствует большая величина другого признака(другой переменной). Иными словами, если один показатель (переменная)увеличивается, то соответственно увеличивается и другой показатель(переменная). Такая зависимость носит название прямо пропорциональнойзависимости.
Если же получен знак минус, то большей величине одного признакасоответствует меньшая величина другого. Иначе говоря, при наличии знака минус,увеличению одной переменной (признака, значения) соответствует уменьшениедругой переменной. Такая зависимость носит название обратно пропорциональнойзависимости. При этом выбор переменной, которой приписывается характер(тенденция) возрастания — произволен. Это может быть как переменная X так и переменная Y. Однако если психолог будет считать,что увеличивается переменная X, топеременная Y будет соответственно уменьшаться, инаоборот. Эти положения очень важно четко усвоить для правильной интерпретацииполученной корреляционной зависимости.
В общем виде формула для подсчета коэффициента корреляции такова:
(формула 2)
где хi —значения, принимаемые переменной X,
yi- значения, принимаемые переменной Y;
x — средняя по X,
у — средняя по Y.
Расчет коэффициента корреляции Пирсона предполагает, что переменные X и Y распределены нормально.
Для применения коэффициента корреляции Пирсона, необходимо соблюдатьследующие условия:
1. Сравниваемые переменные должны быть получены в интервальной шкале илишкале отношений.
2. Распределения переменных X и Y должны быть близки к нормальному.
3. Число варьирующих признаков в сравниваемых переменных X и Y должно быть одинаковым.
4. Таблицы уровней значимости для коэффициента корреляции Пирсонарассчитаны от n = 5 до n =1000. Оценка уровня значимости по таблицам осуществляется при числе степенейсвободы k = n — 2.
3.2 Коэффициент корреляции ранговСпирмена
Коэффициент корреляции рангов, предложенный К. Спирменом, относится кнепараметрическим показателям связи между переменными, измеренными в ранговойшкале. При расчете этого коэффициента не требуется никаких предположений охарактере распределений признаков в генеральной совокупности. Этот коэффициентопределяет степень тесноты связи порядковых признаков, которые в этом случаепредставляют собой ранги сравниваемых величин. Правила ранжирования варьирующихвеличин были описаны выше (см. 1.4.1.).
Величина коэффициента линейной корреляции Спирмена также лежит винтервале +1 и -1. Он, как и коэффициент Пирсона, может быть положительным иотрицательным, характеризуя направленность связи между двумя признаками,измеренными в ранговой шкале.
В принципе число ранжируемых признаков (качеств, черт и т.п.) может бытьлюбым, но сам процесс ранжирования большего чем 20 числа признаков —затруднителен. Возможно, что именно поэтому таблица критических значенийрангового коэффициента корреляции рассчитана лишь для сорока ранжируемыхпризнаков (n
Ранговый коэффициент линейной корреляции Спирмена подсчитывается поформуле:
(формула 3)
где n — количество ранжируемых признаков (показателей, испытуемых)
D —разностьмежду рангами по двум переменным для каждого испытуемого
∑(D2) — сумма квадратов разностей рангов.
3.3 Случай одинаковых (равных) рангов
При наличии одинаковых рангов формула расчета коэффициента линейнойкорреляции Спирмена будет несколько иной. В этом случае в формулу вычислениякоэффициентов корреляции добавляются два новых члена, учитывающие одинаковыеранги. Они называются поправками на одинаковые ранги и добавляются в числительрасчетной формулы.
(формула 4.1)
(формула 4.2)
где n — число одинаковых рангов в первом столбце,
k —число одинаковых рангов во втором столбце.
Если имеется две группы одинаковых рангов в каком либо столбце то формулапоправки несколько усложняется:
(формула 4.3)
где n — число одинаковых рангов в первой группе ранжируемогостолбца,
k –число одинаковых рангов в второй группе ранжируемого столбца. Модификацияформулы в общем случае такова:
(формула 4.4)
Для применения коэффициента корреляции Спирмена, необходимо соблюдатьследующие условия:
1. Сравниваемые переменные должны быть получены в порядковой (ранговой)шкале, но могут быть измерены также в шкале интервалов и отношений.
2. Характер распределения коррелируемых величин не имеет значения.
3. Число варьирующих признаков в сравниваемых переменных X и Y должно быть одинаковым.
4. Таблицы для определения критических значений коэффициента корреляцииСпирмена рассчитаны от числа признаков равных n = 5 до n = 40и при большем числе сравниваемых переменных следует использовать таблицу дляпирсоновского коэффициента корреляции. Нахождение критических значенийосуществляется при k = n.
3.4 Расчет уровней значимостикоэффициентов корреляции
Все коэффициенты корреляции, которые будут рассмотрены ниже, не имеютстандартных таблиц для нахождения критических значений. В этих случаях поисккритических значений осуществляется с помощью t-критерия Стьюдента по формуле:
((формула 5)
где rэмп — коэффициент корреляции,
n— число коррелируемых признаков, а величина Тф проверяется науровень значимости по таблице для t-критерия Стьюдента. Число степеней свободы в этом случае будет равно k = n — 2.
Однако с помощью формулы можно проводить оценку уровней значимости икоэффициентов корреляции Пирсона и Спирмена.
3.5 Коэффициент корреляции «φ»
При сравнении двух переменных, измеренных в дихотомической шкале, меройкорреляционной связи служит так называемый коэффициент «φ», или, какназвал эту статистику ее автор К. Пирсон, — «коэффициент ассоциации».
Величина коэффициента «φ»лежит в интервале +1 и -1. Он может бытькак положительным, так и отрицательным, характеризуя направление связи двухдихотомически измеренных признаков.
В общем виде формула вычисления коэффициента корреляции «φ» выглядиттак:
(формула 6)
где рх — частота или доля признака, имеющего 1 по X,
(1 — рх) — доля или частота признака, имеющего 0 по X;
ру — частота илидоля признака, имеющего 1 по Y,
(1 — ру) — доля или частота признака, имеющего 0 по Y,
рху — доля иличастота признака, имеющая 1 одновременно как по X, так и по Y.
Частоты вычисляется следующим образом: подсчитывается количество 1 впеременной Х и полученная величина делится на общее число элементов этойпеременной — N. Аналогично подсчитываются частоты для переменной Y. Обозначение рху — соответствуетчастоте или доле признаков, имеющих единицу как по Х так и по Y.
Второй способ вычисления коэффициента «φ»
Коэффициент «φ» можно вычислить, не применяя метод кодирования. Вэтом случае используется так называемая четырехпольная таблица, или таблицасопряженности. Каждую клетку таблицы обозначим соответствующими буквами а, b, с и d.
Приведем общую формулу расчета коэффициента «φ» по таблицесопряженности:
(формула 7)
Для применения коэффициента корреляции «φ» необходимо соблюдать следующие условия:
1. Сравниваемые признаки должны быть измерены в дихотомической шкале.
2. Число варьирующих признаков в сравниваемых переменных Х и Y должно быть одинаковым.
3. Для оценки уровня достоверности коэффициента «φ» следуетпользоваться формулой (5) и таблицей критических значений для t-критерия Стьюдента при k = n — 2.
3.6 Коэффициент корреляции «τ»Кендалла
Коэффициент корреляции «τ» (тау) Кендалла относится к числунепараметрических, т.е. при вычислении этого коэффициента не играет ролихарактер распределения сравниваемых переменных. Коэффициент «τ»предназначен для работы с данными, полученными в ранговой шкале. Иногда этоткоэффициент можно использовать вместо коэффициента корреляции Спирмена,поскольку способ его вычисления более прост. Он основан на вычислении суммыинверсий и совпадений.
Для применения коэффициента корреляции «т» Кендалла необходимо соблюдатьследующие условия:
1. Сравниваемые признаки должны быть измерены в порядковой шкале.
2. Число варьирующих признаков в сравниваемых переменных Х и Y должно быть одинаковым.
3. Величина «τ» Кендалла независима от закона распределения величинХ и Y.
4. При расчетах этого коэффициента не допускается использованиеодинаковых рангов.
5. Для оценки уровня достоверности коэффициента «τ» следуетпользоваться формулой (5) и таблицей критических значений для t-критерия Стьюдента при k= n -1.
3.7 Бисериальный коэффициент корреляции
В тех случаях, когда одна переменная измеряется в дихотомической шкале(переменная X), а другая в шкале интервалов илиотношений (переменная Y),используется бисериальный коэффициент корреляции. Мы помним, что переменная X,полученная в дихотомической шкале, принимает только два значения (кода) 0 и 1.Особо подчеркнем, что несмотря на то, что этот коэффициент изменяется вдиапазоне от — 1 до + 1 его знак для интерпретации результатов не имеет значения.Это исключение из общего правила.
Расчет этого коэффициента производится по формуле:
(формула 8)
где Х1 среднее по тем элементам переменной Y, которым соответствует код (признак) 1 в переменной X. Здесьn1 — количество единичек в переменной X.
Х0 среднее по тем элементам переменной Y, которым соответствует код (признак) 0 в переменной X. Здесь n0 — количество нулей в переменной X.
N = n1 + n0 — общее количество элементов в переменной X.
Sy— стандартноеотклонение переменной Y,вычисляемое по формуле
Значимость бисериального коэффциента корреляции оценивается по величине Тфt-критерия Стьюдента с числом степенейсвободы k = n — 2.
Для применения бисериального коэффициента корреляции необходимо соблюдатьследующие условия:
1. Сравниваемые переменные должны быть измерены в разных шкалах: одна Х —в дихотомической шкале; другая Y—вшкале интервалов или отношений.
2. Предполагается, что переменная Y имеет нормальный закон распределения.
3. Число варьирующих признаков в сравниваемых переменных Х и Y должно быть одинаковым.
4. Для оценки уровня достоверности бисериального коэффициента корреляцииследует пользоваться формулой (5) и таблицей критических значений для t-критерия Стьюдента при k = n — 2.
3.8 Рангово-бисериальный коэффициенткорреляции
В тех случаях, когда одна переменная измеряется в дихотомической шкале(переменная X), а другая в ранговой шкале (переменная Y), используется рангово-бисериальный коэффициент корреляции.Мы помним, что переменная X, измеренная в дихотомической шкале, принимаеттолько два значения (кода) 0 и 1. Особо подчеркнем: несмотря на то что этоткоэффициент изменяется в диапазоне от -1 до +1, его знак для интерпретациирезультатов не имеет значения. Это еще одно исключение из общего правила.
Расчет этого коэффициента производится по формуле:
(формула 9)
где Х1 — средний ранг по тем элементам переменной Y, которым соответствует код (признак)1 в переменной X;
Для применения рангово-бисериального коэффициента корреляции необходимособлюдать следующие условия:
1. Сравниваемые переменные должны быть измерены в разных шкалах: одна X— в дихотомической шкале; другая Y—в ранговой шкале.
2. Число варьирующих признаков в сравниваемых переменных Х и Y должно быть одинаковым.
3. Для оценки уровня достоверности рангово-бисериального коэффициента корреляцииследует пользоваться формулой (5) и таблицей критических значений для t-критерия Стьюдента при k = n — 2.
3.9 Корреляционное отношение Пирсонаη
Все рассмотренные выше коэффициенты корреляции служат для выявлениятолько линейной зависимости между признаками. Для измерения нелинейнойзависимости К. Пирсон предложил показатель, который он назвал корреляционнымотношением. Напомним, что коэффициент корреляции rxy(формула 11.1), который был введенПирсоном, характеризует связь между переменными Х и Y с точки зрения прямой или обратной пропорциональности, инымисловами, получаемая связь между переменными является согласованной и такой, чтос увеличением одной переменной другая (в среднем) либо только увеличивается,либо только уменьшается (в среднем). При этом в первом случае получаетсяположительный коэффициент корреляции, во втором отрицательный.
Корреляционное отношение описывает искомую связь, условно говоря, с двухсторон: со стороны переменной Х по отношению к Y, и со стороны переменной Y по отношению к X. Соответственно этому корреляционноеотношение представляет собой два показателя, обозначаемые как hyx и hxy. Они вычисляются отдельно друг отдруга. Однако они связаны между собой, поскольку при строго линейнойзависимости между переменными Х и Y имеет место равенство hyx = hxy В этом случае величины обоих показателей корреляционногоотношения совпадают с величиной коэффициента корреляции Пирсона.
Показатели корреляционного отношения вычисляются по следующим двумформулам:
(формула 10.1)
(формула 10.2)
здесь х и у общие, а хyи уx — групповые средние арифметические, fy и fx частоты рядов X и Y. Согласно этим формулам оба показателя всегда положительны ирасполагаются в интервале от 0 до +1.
Подчеркнем, что, как правило, hyx ≠ hxy. Равенство между этими коэффициентами возможно лишь приналичии строго линейной связи между коррелируемыми переменными. Именно поэтомуразличие между hyx и hxy убудет означать наличие не линейной,а связи более сложного типа между коррелируемыми признаками.
Для вычисления корреляционного соотношения hyx (Y по X) илиhxy (X по Y) необходимо выполнить следующие действия:
1) расположить по порядку исходные данные по Х от меньшей величины кбольшей, при этом сохранив значения соответствующих величин У по отношению к Х;
2) определить частоты переменной Х — обозначение fx;
3) подсчитать арифметические (частные) средние по переменной Y для соответствующей частоты fx — обозначение уx ;
4) найти варианты (неповторяющиеся значения) величины Х — обозначение хi;
5) расположить по порядку исходные данные по Y от меньшей величины к большей, при этом сохранив значениясоответствующих величин Х по отношению к Y;
6) определить частоты переменной Y— обозначение fy;
7) подсчитать арифметические (частные) средние по переменной Х длясоответствующей частоты fy — обозначение хy;
8) найти варианты (неповторяющиеся значения) переменной Y — обозначение yi;
9) определить общие средние по переменной Х и Y обозначение x и у;
10) произвести расчет по формулам (10.1) и (10.2);
11) определить уровень значимости полученных показателей корреляционногоотношения но таблице критических значений для t-критерия Стьюдента при k = n — 2.
Разумеется, корреляционное отношение Пирсона не дает возможностиустановить характер выявленной зависимости — она может быть параболической,кубической, логарифмической и др. Из результатов анализа ясно только одно:связь между переменными Х и Yносит нелинейный характер. Более точно характер связи можно определить спомощью метода регрессионного анализа.
Для применения корреляционного отношения Пирсона необходимо соблюдатьследующие условия:
1. Сравниваемые переменные должны быть измерены в шкале интервалов илиотношений.
2. Предполагается, что обе переменные имеют нормальный законраспределения.
3. Число варьирующих признаков в сравниваемых переменных Х и У должнобыть одинаковым.
4. Для оценки уровня достоверности корреляционного отношения Пирсонаследует пользоваться формулой (5) и таблицей критических значений для t-критерия Стьюдента при k = n — 2.
3.10 Множественная корреляция
Наряду с анализом связей между двумя рядами данных можно проводить анализмногомерных корреляционных связей. Наиболее простым случаем нахождения подобнойзависимости является вычисление коэффициентов множественной корреляции междутремя переменными X, Y и Z. В соответствии с числом переменныхвычисляются три коэффициента множественной корреляции. Собственно говоря,коэффициент множественной корреляции оценивает тесноту линейной связи однойпеременной, например X, с двумя остальными, Y и Z, иобозначается как rx(yz). При оценке тесноты линейной связи переменной Y с переменными Х и Z, коэффициент множественнойкорреляции обозначается как ry(xz)
Вычисление коэффициентов множественной корреляции базируется накоэффициентах линейной корреляции между переменными Х и Y — rxy, Х и Z, — rxz, У и Z, — ryz. Для вычисления одного изкоэффициентов множественной корреляции, например rx(yz) используется следующая формула:
(формула 11)
где rxy, rxz, ryz— коэффициенты линейной корреляциимежду парами переменных Х и Y, Х иZ, Y и Z..
Коэффициент множественной корреляции принимает значения от 0 до 1.Значимость этого коэффициента оценивают по величине t-критерия Стьюдента с числом степеней свободы k = n — 3.
Для применения множественного коэффициента корреляции необходимо соблюдатьследующие условия:
1. Сравниваемые переменные должны быть измерены в шкале интервалов илиотношений.
2. Предполагается, что все переменные имеют нормальный законраспределения.
3. Число варьирующих признаков в сравниваемых переменных должно быть одинаковым.
4. Для оценки уровня достоверности корреляционного отношения Пирсонаследует пользоваться формулой (5) и таблицей критических значений для t-критерия Стыодента при k = n — 3.
3.11Частная корреляция
Название «частная корреляция» был впервые использовано в работе Д. Юла в1907. Смысл этого понятия иллюстрирует следующий пример. Предположим, что приобработке некоторых данных удалось обнаружить значимую отрицательную корреляциюмежду длиной волос и ростом (т.е. люди низкого роста обладают более длиннымиволосами). На первый взгляд это может показаться странным: однако, есливключить в расчет еще один признак — переменную «пол» и использовать нелинейную, а частную корреляцию, то результат получит закономерное объяснение.поскольку женщины в среднем имеют более длинные волосы, чем мужчины, а их роств среднем ниже, чем у мужчин. После учета переменной «пол» частная корреляциямежду длиной волос и ростом может оказаться близкой к единице. Иными словами,если одна величина коррелирует с другой, то это может быть отражением тогофакта, что они обе коррелируют с третьей величиной или с совокупностью величин.
Если известна линейная связь между парами переменных X, Y и Z., то можно подсчитать частные коэффициенты корреляции,показывающие линейную корреляционную зависимость между двумя переменными припостоянной величине третьей переменной. Для определения частного коэффициентакорреляции между переменными X и Y при постоянной величине переменной Z, используют формулу:
(формула 12.1)
Заключение (z) в скобки означает,что влияние переменной z пакорреляцию между Х и Yпостоянно. В том случае, если бы влияния переменной Z не было бы совсем, мы бы получили обычный коэффициенткорреляции Пирсона между переменными Х и У.
Аналогично строят частые корреляционные зависимости между Х и Z (при постоянной Y) и Y и Z.(при постоянной Х).
(формула 12.2)
Значимость частного коэффициента корреляции оценивают по величине Тф,подсчитанной по формуле (5) для t-критерияСтьюдента с числом степеней свободы k = n — 2.
Для применения частного коэффициента корреляции необходимо соблюдатьследующие условия:
1. Сравниваемые переменные должны быть измерены в шкале интервалов илиотношений.
2. Предполагается, что все переменные имеют нормальный законраспределения.
3. Число варьирующих признаков в сравниваемых переменных должно бытьодинаковым.
4. Для оценки уровня достоверности корреляционного отношения Пирсонаследует пользоваться формулой (11.9) и таблицей критических значений для t-критерия Стьюдента с числом степенейсвободы k = n — 2. (5).
ЗАКЛЮЧЕНИЕ
В заключение подчеркнем, что содержательное ограничение корреляционногоанализа состоит в том, что он позволяет обнаружить только наличие связи и недает оснований для установления причинно-следственных отношений. Например,можно обнаружить положительную корреляцию между уровнем умственного развитиядетей старшего дошкольного возраста и календарными сроками смены молочных зубовкоренными. Другими словами, чем раньше происходит замена молочных зубов, темвыше показатели умственного развития детей. Следует ли делать вывод о том, чтосмена зубов способствует умственному развитию детей, или, напротив, ускоренноеумственное развитие приводит к более быстрому изменению состава зубов. Обапредположения выглядят одинаково нелепо.
Причина в том, что оба показателя непосредственно отражают индивидуальныйтемп биологического созревания. Другими словами, они связаны с третьей —латентной переменной, которая недоступна для прямого измерения, но благодаряэтой связи оба показателя значимо коррелируют между собой. Формальная логикакорреляционного анализа не позволяет исследовать эти аспектывзаимообусловленности статистических рядов данных.(5).
/>Список использованной литературы
1. Годфруа Ж. Что такое психология: В2-х т. Т. 1: Пер. с франц.-М.: Мир, 1992.
2. Горбатов Д.С.Практикум по психологическому исследованию: Учеб. пособие. – Самара: «БАХРАХ — М», 2003. – 272 с.
3. Дружинин В.Н. Экспериментальнаяпсихология: Учебное пособие — М.: ИНФРА-М, 1997.
4. Дружинин В.Н. Экспериментальная психология— СПб: Питер, 2000. – 320с.
5. Ермолаев О.Ю. Математическаястатистика для психологов. М.: Московский психолого-социальный институт:Флинта, 2003. – 366 с.
6. Корнилова Т.В. Введение впсихологический эксперимент. Учебник для ВУЗов. М.: Изд-во ЧеРо, 2001.
7. Мельников В.М., Ямпольский Л.Т.Введение в экспериментальную психологию личности.- М.: Просвещение, 1985.