Факторный анализ
Один из наиболее распространенных вариантов этого метода — факторный анализ — позволяет определить совокупность внутренних взаимосвязей, возможных причинно-следственных связей, существующих в экспериментальном материале. В результате факторного анализа обнаруживаются так называемые факторы — причины, объясняющие множество частных (парных) корреляционных зависимостей.
Фактор — математико-статистическое понятие. Будучи переведенным на язык психологии (эта процедура называется содержательной или психологической интерпретацией факторов), он становится психологическим понятием. Например, в известном 16-факторном личностном тесте Р. Кеттела каждый фактор взаимно однозначно связан с определенными чертами личности человека.
С помощью выявленных факторов объясняют взаимозависимость психологических явлений. Поясним сказанное на примере. Допустим, что в некотором психолого-педагогическом эксперименте изучалось взаимовлияние таких переменных, как характер, способности, потребности и успеваемость учащихся. Предположим далее, что, оценив каждую из этих переменных у достаточно представительной выборки испытуемых и подсчитав коэффициенты парных корреляций между всевозможными парами данных переменных, мы получили следующую матрицу интеркорреляций (в ней справа и сверху цифрами обозначены в перечисленном выше порядке изученные в эксперименте переменные, а внутри самого квадрата показаны их корреляции друг с другом; поскольку всевозможных пар в данном случае меньше, чем клеток в матрице, то заполнена только верхняя часть матрицы, расположенная выше ее главной диагонали).
Анализ корреляционной матрицы показывает, что переменная 1 (характер) значимо коррелирует с переменными 2 и 3 (способности и потребности). Переменная 2 (способности) достоверно коррелирует с переменной 3 (потребности), а переменная 3 (потребности) — с переменной 4 (успеваемость). Фактически из шести имеющихся в матрице коэффициентов корреляции четыре являются достаточно высокими и, если предположить, что они определялись на совокупности испытуемых, превышающей 10 человек, — значимыми.
| 1 | 2 | 3 | 4 |
1 |
| 0,82 | 0,50 | 0,04 |
2 |
|
| 0,40 | 0,24 |
3 |
|
|
| 0,75 |
4 |
|
|
|
|
Зададим некоторое правило умножения столбцов цифр на строки матрицы: каждая цифра столбца последовательно умножается на каждую цифру строки и результаты парных произведений записываются в строку аналогичной матрицы. Пример: если по этому правилу умножить друг на друга три цифры столбца и строки, представленные в левой части матричного равенства, то получим матрицу, находящуюся в правой части этого же равенства:
2 | X | 2 | 3 | 4 | = | 4 | 6 | 8 |
3 |
|
|
|
| 6 | 9 | 12 | |
4 |
|
|
|
|
| 8 | 12 | 16 |
Задача факторного анализа по отношению к только что рассмотренной является как бы противоположной. Она сводится к тому, чтобы по уже имеющейся матрице парных корреляций, аналогичной представленной в правой части показанного выше матричного равенства, отыскать одинаковые по включенным в них цифрам столбец и строку, умножение которых друг на друга по заданному правилу порождает корреляционную матрицу.
Иллюстрация:
Х1 | х | Х1 | Х2 | Х3 | Х4 | = |
| 0,16 | 0,50 | 0,30 |
Х2 |
| 0,16 |
| 0,40 | 0,24 | |||||
Х3 | 0,50 | 0,40 |
| 0,75 | ||||||
Х4 | 0,30 | 0,24 | 0,75 |
|
Здесь х1 х2, x3 и х4 — искомые числа.
Для их точного и быстрого определения существуют специальные математические процедуры и программы для ЭВМ.
Допустим, что мы уже нашли эти цифры: x1= 0,45, х2 =,36 х3 = 1,12, х4= 0,67. Совокупность найденных цифр и называется фактором, а сами эти цифры — факторными весами или нагрузками.
Эти цифры соответствуют тем психологическим переменным, между которыми вычислялись парные корреляции,
х1— характер,
х2 — способности,
х3— потребности,
х4— успеваемость.
Поскольку наблюдаемые в эксперименте корреляции между переменными можно рассматривать как следствие влияния на них общих причин — факторов, а факторы интерпретируются в психологических терминах, мы можем теперь от факторов перейти к содержательной психологической интерпретации обнаруженных статистических закономерностей. Фактор содержит в себе ту же самую информацию, что и вся корреляционная матрица, а факторные нагрузки соответствуют коэффициентам корреляции. В нашем примере х3 (потребности) имеет наибольшую факторную нагрузку (1,12), а х2 (способности) — наименьшую (0,36).
Следовательно, наиболее значимой причиной, влияющей на все остальные психологические переменные, в нашем случае являются потребности, а наименее значимой — способности. Из корреляционной матрицы видно, что связи переменной х3 со всеми остальными являются наиболее сильными (от 0,40 до 0,75), а корреляции переменной х2 — самыми слабыми (от 0,16 до 0,40).
Чаще всего в итоге факторного анализа определяется не один, а несколько факторов, по-разному объясняющих матрицу интеркорреляций переменных. В таком случае факторы делят на генеральные, общие и единичные.
Генеральными называются факторы, все факторные нагрузки которых значительно отличаются от нуля (нуль нагрузки свидетельствует о том, что данная переменная никак не связана с остальными и не оказывает на них никакого влияния в жизни).
Общие — это факторы, у которых часть факторных нагрузок отлична от нуля.
Единичные — это факторы, в которых существенно отличается от нуля только одна из нагрузок.
- Введение
- Раздел I. Введение в теорию вероятностей
- Понятие о случайном событии
- Классическое определение вероятности
- Относительная частота. Статистическое определение вероятности.
- Геометрическая вероятность
- Свойства вероятностей Сложение вероятностей несовместимых событий
- Умножение вероятностей
- Сложение вероятностей совместимых событий
- Формула полной вероятности
- Основные формулы комбинаторики
- Дискретные и непрерывные случайные величины. Понятие «случайные величины»
- Закон распределения случайной величины
- Теоретические распределения вероятностей
- Биномиальное распределение
- Распределение Пуассона
- Числовые характеристики дискретных случайных величин
- Нормальное распределение
- Вопросы для самопроверки:
- Раздел II. Основные понятия и термины биологической статистики Генеральная совокупность и выборка
- Непреднамеренный отбор. Метод последовательных номеров. Случайный и механический методы отбора
- Признаки и показатели
- Правила ранжирования
- Способы группировки первичных данных.
- Схемы (модели) научного исследования
- Однофакторная и многофакторная модель Контрольные и экспериментальные группы
- Метод автоконтроля
- Метод дублирования
- Метод последовательного пополнения групп
- Численность контрольных и экспериментальных групп
- Научные гипотезы
- Направленные гипотезы
- Статистические критерии
- Параметрические критерии
- Непараметрические критерии
- Уровни статистической значимости
- 1 Рода.
- Вопросы для самопроверки
- Раздел III. Статистические методы обработки экспериментальных данных
- Проверка гипотезы о законе распределения
- Χ2 Пирсона
- Описательные статистики Концепция сжатия экспериментальных данных
- Показатели центральной тенденции. Средние.
- Медиана
- Персентили
- Показатели изменчивости
- Стандартизованные данные
- Показатели асимметрии и эксцесса
- Эксцесс
- Работа с качественными переменными Количественная оценка результатов эксперимента.
- Вопросы для самопроверки:
- Сравнение двух независимых групп т критерий Стьюдента
- Критерии согласия для дисперсий
- U критерий Маана-Уитни
- Сравнение качественных признаков Критерий χ2
- Сравнение долей
- Точный тест Фишера
- Сравнение более двух независимых групп Однофакторный дисперсионный анализ Фишера
- Критерий Краскела-Уоллиса
- Сравнение двух зависимых групп Парный т критерий Стьюдента
- Парный критерий т – Вилкоксона
- Критерий x2r Фридмана
- Тест Мак-Немара
- Корреляционный анализ
- Вычисление и интерпретация параметров парной линейной корреляции
- Условия применения и ограничения корреляционно анализа
- Вычисление и интерпретация параметров парной линейной корреляции
- Измерение связи количественных признаков
- Измерение связи порядковых признаков
- Измерение связи номинальных признаков
- Относительный риск. Отношение шансов
- Статистическая оценка надежности параметров парной корреляции
- Частная корреляция
- Факторный анализ
- Вопросы для самопроверки:
- Регрессионный анализ
- Метод наименьших квадратов
- Выбор формы функциональной зависимости
- Применение парного линейного уравнения регрессии
- Корреляционно-регрессионные модели (крм) и их применение в анализе и прогнозе.
- Логистическая регрессия
- Анализ динамических изменений Применение метода наименьших квадратов при исследовании тенденции развития
- Анализ циклических изменений
- Метод обычных средних
- Метод корригирования средних
- Метод отношения фактических данных
- Ошибки, допускаемые при количественной характеристике сезонных колебаний
- Кластерный анализ
- Иерархическое дерево
- Меры расстояния
- Правила объединения или связи
- Метод k средних
- Выбор между параметрическими и непараметрическими тестами: легкая ситуация.
- Выбор между параметрическими и непараметрическими тестами: сложные случаи.
- Выбор между параметрическим и непараметрическим тестом: насколько это на самом деле влияет на результат?
- Одно или двухсторонняя p-оценка?
- Парный или непарный тест?
- Тест Фишера или хи-квадрат?
- Регрессия или корреляция?
- Вопросы для самопроверки:
- Раздел IV. Работа с программой easystatistics Общие сведения о программе EasyStatistics
- Создание новой базы данных
- Работа с файлами
- Копирование и вставка данных
- Работа с фильтрами
- Работа с переменными и строками
- Статистические методы Описательные статистики
- Частотный анализ
- Сравнение независимых выборок
- Сравнение связанных выборок
- Дисперсионный анализ
- Корреляционный анализ
- Множественная регрессия
- Проверка типа распределения эмпирических данных
- Вероятностный калькулятор
- Задания для самостоятельной работы с программой
- Список рекомендуемой литературы
- Граничные (критические) значения 2-критерия, соответствующие разным вероятностям допустимой ошибки и разным степеням свободы
- Критические значения коэффициентов корреляции для различных степеней свободы (n - 2) и разных вероятностей допустимых ошибок