Коэффициент корреляции рангов Спирмена г

Этот коэффициент рассчитывать проще, однако результаты полу­чаются менее точными, чем при использовании г. Это связано с тем, что при вычислении коэффициента Спирмена используют порядок следо­вания данных, а не их количественные характеристики и интервалы между классами.

Дело в том, что при использовании коэффициента корреляции рангов Спирмена (г,) проверяют только, будет ли ранжирование данных для какой-либо выборки таким же, как и в ряду других данных для этой выборки, попарно связанных с первыми (например, будут ли одинаково «ранжироваться» студенты при прохождении ими как психологии, так и математики, или даже при двух разных преподавателях психологии?). Если коэффициент близок к + 1, то это означает, что оба ряда практи­чески совпадают, а если этот коэффициент близок к - 1, можно говорить о полной обратной зависимости.

Коэффициент ^ вычисляют по формуле

где (/-разность между рангами сопряженных значений признаков (неза­висимо от ее знака), а и-число пар.

Обычно этот непараметрический тест используется в тех случаях, когда нужно сделать какие-то выводы не столько об интервалах между данными, сколько об их рангах, а также тогда, когда кривые распреде­ления слишком асимметричны и не позволяют использовать такие параметрические критерии, как коэффициент г (в этих случаях бывает необходимо превратить количественные данные в порядковые).

Поскольку именно так обстоит дело с распределением значений эффективности и времени реакции в экспериментальной группе после воздействия, можно повторить расчеты, которые вы уже проделали для этой группы, только теперь не для коэффициента г, а для показателя г,. Это позволит посмотреть, насколько различаются эти два показателя.

Статистика и обработка данных 311

   
Испыту- Эффек- Время Ранги Ранги d d1 емые тивность реакции х* у* х У
Д 8 8 17 , 12 5 7 49 Д 9 20 13 1 2 I 1 Д 10 6 20 15 11,5 3,5 12,25 Д 11 8 18 12 7,5 4,5 20,25 Д 12 17 21 2 13,5 11.5 132,25 Д 13 10 22 8,5 15 6,5 42,25 Д 14 10 19 8,5 9,5 1 1 Ю9 9 20 10 11,5 1,5 2,25 Ю 10 7 17 14 5 9 81 Д 11 8 19 12 9,5 2,5 6,25 Ю 12 14 14 4 3 1 1 Ю 13 13 12 5 1 4 16 Ю 14 16 18 3 7,5 4,5 20,25 Ю 15 11 21 7 13,5 6,5 42,25 Ю 16 12 17 6 5 1 1

* Следуетпомнить, что

1) для числа попаданий 1-й ранг соответствует самой высокой, а 15-й-самой низкой результативности, тогда как для времени реакции 1-й ранг соответствует самому короткому времени, а 15-и-самому долгому,

2) данным ex aequo придается средний ранг.



6-428

153- 15

== 1

= 0,24.


Таким образом, как и в случае коэффициента г, получен положитель­ный, хотя и недостоверный, результат. Какой же из двух результатов правдоподобнее: г = -0,48 или г, = +0,24? Такой вопрос может встать лишь в том случае, если результаты достоверны.

Хотелось бы еще раз подчеркнуть, что сущность этих двух коэф­фициентов несколько различна. Отрицательный коэффициент г указы­вает на то, что эффективность чаще всего тем выше, чем время реакции меньше, тогда как при вычислении коэффициента г, требовалось про­верить, всегда ли более быстрые испытуемые реагируют более точно, а более медленные - менее точно.

Поскольку в экспериментальной группе после воздействия был полу­чен коэффициент г,, равный 0,24, подобная тенденция здесь, очевидно, не прослеживается. Попробуйте самостоятельно разобраться в данных для контрольной группы после воздействия, зная, что ^_d2 = 122,5:

г, = 1 - ------- = I - ------- == 1 - ; достоверно ли?

Каков ваш вывод?..........................................

Итак, мы рассмотрели различные параметрические и непараметри­ческие статистические методы, используемые в психологии. Наш обзор

312 Приложение £

был весьма поверхностным, и главная задача его заключалась в том чтобы читатель понял, что статистика не так страшна, как кажется, и требует в основном здравого смысла. Напоминаем, что данные «опыта», с которыми мы здесь имели дело,-вымышленные и не могут служить основанием для каких-либо выводов. Впрочем, подобный экс­перимент стоило бы действительно провести. Поскольку для этого опыта была выбрана сугубо классическая методика, такой же статисти­ческий анализ можно было бы использовать во множестве различных экспериментов. В любом случае нам кажется, что мы наметили какие-то главные направления, которые могут оказаться полезны тем, кто не знает, с чего начать статистический анализ полученных результатов.

Резюме

Существуют три главных раздела статистики: описательная ста­тистика, индуктивная статистика и корреляционный анализ.

I. Описательная статистика

1. Задачи описательной статистики - классификация данных, постро­ение распределения их частот, выявление центральных тенденций этого распределения и оценка разброса данных относительно средних.

2. Для классификации данных сначала располагают их в возрастаю­щем порядке. Далее их разбивают на классы по величине, интервалы между которыми определяются в зависимости от того, что именно иследователь хочет выявить в данном распределении.

3. К наиболее часто используемым параметрам, с помощью которых можно описать распределение, относятся, с одной стороны, такие величины, как мода, медиана и средняя арифметическая, а с другой -показатели разброса, такие как варианса (дисперсия) и стандартное отклонение.

4. Мода соответствует значению, которое встречается чаще других или находится в середине класса, обладающего наибольшей частотой.

Медиана соответствует значению центрального данного, которое может быть получено после того, как все данные будут расположены в возрастающем порядке.

Средняя арифметическая равна частному от деления суммы всех данных на их число.

Распределение считается нормальным, если кривая распределения имеет колоколообразный вид, а все показатели центральной тенденции совпадают, что свидетельствует о симметричности распределения.

5. Диапазон распределения (размах вариаций) равен разности между наибольшим и наименьшим значениями результатов.

6. Среднее отклонение-это более точный показатель разброса, чем диапазон распределения. Для расчета среднего отклонения вычисляют среднюю разность между всеми значениями данных и средней арифме-

Cinciiniu тики и обработки дачных 313

тической, или, упрощенно,

Среднее отклонение =

7. Еще один показатель разброса, вычисляемый из среднего откло­нения,-это варианса (дисперсия), равная среднему квадрату разностей между значениями всех данных и средней:

Yd2 Варианса = --. п

8. Наиболее употребительным показателем разброса служит стан­дартное отклонение, равное квадратному корню из вариансы. Таким образом, это квадратный корень из суммы квадратов всех отклонений от средней:

Стандартное отклонение = или

п V п - 1

9. Важное свойство стандартного отклонения заключается в том. что независимо от его абсолютной величины в нормальном распределении оно всегда соответствует одинаковому проценту данных, располага­ющихся по обе стороны от средней: 68% результатов располагаются в пределах одного стандартного отклонения в обе стороны от средней, 95%-в пределах двух стандартных отклонений и 99,7%-в пределах трех стандартных отклонений.

10. С помощью перечисленных выше показателей можно осущест­вить оценку различий между двумя или несколькими распределениями, позволяющую проверить, насколько эти различия могут быть экстра­полированы на популяцию, из которой взяты выборки. Для этого применяют методы индуктивной статистики.

II. Индуктивная статистика

1. Задача индуктивной статистики заключается в том, чтобы оце-' нить значимость тех различий, которые могут быть между двумя распределениями, с целью выяснить, можно ли распространить найден­ную закономерность на всю популяцию, из которой были взяты выборки.

2. Для того чтобы определить, достоверны ли различия между распределениями, следует выдвинуть гипотезу, которую нужно будет затем проверить статистическими методами. Нулевой гипотезой на­зывают предположение, согласно которому различие между распре­делениями недостоверно, тогда как альтернативная гипотеза утверж­дает противоположное.

3. В том случае, если данных достаточно, если эти данные количест­венные и подчиняются нормальному распределению, для проверки гипотез используют параметрические критерии. Если же данных мало либо они

.44 Приложение Б

являются порядковыми или качественными (см.дополнение Б.1), исполь­зуют непараметрические критерии.

4. Из параметрических критериев наиболее эффективен и чаще всего используется критерий t Стьюдента. Этот критерий позволяет сравнить средние и стандартные отклонения для двух распределений. В случае если эти показатели принадлежат независимым выборкам, используют формулу

Х,-Х,

Для сопряженных выборок используют иную формулу:

^-^ .

lny--(W

5. Если необходимо сравнить три или большее число распределений. используют иной параметрический метод-дисперсионный анализ. При этом с помощью метода Шеффе можно выявить пары выборок, разли­чия между которыми достоверны либо недостоверны.

6. Критерий 72 (хи-квадрат)-это непараметрический критерий, по­зволяющий проверить, являются ли две переменные независимыми друг от друга. По этому методу сравнивают, как распределяются эмпири­ческие частоты в зависимости от критериев для каждой переменной, с тем, как они распределились бы теоретически, если бы переменные были независимыми. Далее с помощью таблицы, в которую сводятся все частоты, вычисляют критерий у/. Для этого сначала находят разницу между каждой эмпирической (Э) и соответствующей теоретической (Т) частотой, а затем сумму этих разностей:

, у(Э-Т)2

X-- \ _____

t-i -у

7. Критерий знаков (биномиальный тест)-еще один непараметри­ческий метод, позволяющий легко определить, оказала ли независимая переменная существенное влияние по сравнению с исходным уровнем (ф:'ном). Для этого сначала подсчитывают число «ухудшений» (-) или число «улучшений» (+), а затем сравнивают одно из этих двух чисел с тем. что могло бы получиться в результате чистой случайности (1 шанс из 2, или п/2). Для этого применяют формулу

(X ± 0.5) - ,

Z

/" V 2

Статистики и обработка дачных 315

8. Существуют и другие непараметрические тесты, которые прихо­дится использовать для проверки гипотез тогда, когда нельзя применить параметрические критерии. К этим методам, в частности, относится критерий рангов, позволяющий определить, случайна или нет очеред­ность событий в той или иной последовательности, а также критерий U и критерий Т. Последние два критерия используют в случае поряд­ковых переменных соответственно для независимых и зависимых выборок.

9. Какой бы критерий ни использовался, его вычисленное значение следует сравнить с табличным для уровня значимости 0.05 с учетом числа степеней свободы. Если при этом вычисленный результат ока­жется выше, нулевая гипотеза может быть отвергнута и можно, следо­вательно, утверждать, что разница достоверна.

III. Корреляционный анализ

1. Задача корреляционного анализа заключается в том, чтобы устано­вить возможную связь между двумя показателями, полученными на одной и той же или на двух различных выборках. При этом устанавли­вается. приводит ли увеличение какого-либо показателя к увеличению или уменьшению другого показателя.

2. Коэффициент корреляции колеблется в пределах от +1, что соответствует полной положительной корреляции, до - 1 в случае полной отрицательной корреляции. Если этот коэффициент равен 0, то никакой корреляции между двумя рядами данных нет.

3. Коэффициент корреляции Браве - Пирсона (г)-это параметрический показатель, для вычисления которого сравнивают средние и стандарт­ные отклонения результатов двух измерений. При этом используют формулу

4. Коэффициент корреляции рангов Спирмена (г,) - это непараметри­ческий показатель, с помощью которого пытаются выявить связь между рангами соответственных величин в двух рядах измерений.

5. Коэффициент корреляции может быть значимым лишь при доста­точном числе пар данных, взятых в анализ. Это можно проверить с помощью таблицы пороговых значений г или г, для уровня значимости 0,05.