logo
Мат_моделир_2015_заоч_ЭП_ФИН / Мат_мод_лекции

3.5. Теснота корреляционной связи

В случае линейной зависимости между двумя признаками тесноту связи характеризуют коэффициентом корреляции

, (3.1)

где - корреляционный момент случайных величин (СВ); - среднеквадратичные отклонения СВ .

Корреляционный момент – это математическое ожидание произведения центрированных СВ и : . Для независимых СВ, =0, следовательно, и , в остальных случаях Если , то корреляция положительная, если , то - отрицательная. Оценкой коэффициента корреляции является выборочный коэффициент корреляции , который обладает свойствами коэффициента корреляции (рис.3.1 и рис. 3.2). Эти коэффициенты называют еще соответствующими парными коэффициентами корреляции, например, выборочный парный коэффициент корреляции.

Коэффициент парной корреляции является безразмерной величиной и его значение не зависит от выбора единиц измерения рассматриваемых признаков. Близость к нулю значения коэффициента парной корреляции свидетельствует об отсутствии линейной связи признаков, но не об отсутствии связи между ними вообще. Последняя часть рис. 3.1 поясняет это положение – точки разбросаны по всему корреляционному полю, но концентрируются вокруг окружности. Следовательно, коэффициент парной корреляции близок к нулю, но признаки явно связаны друг другом. Поэтому в случае равенства нулю коэффициента парной корреляции нужно не говорить сразу о независимости признаков в данный период, а построить более сложную модель их связи, учитывающую хотя бы нелинейную зависимость между этими признаками.

В случае нелинейной зависимости тесноту связи устанавливают теоретическим корреляционным отношением.

При исследовании зависимостей между случайными переменными Х и обычно ограничиваются изучением зависимости одной из них и условным математическим ожиданием другой, т.е.илигде- математическое ожидание случайной величиныпри условии, что случайная величинаприняла значение

Условное математическое ожидание случайной переменной, рассматриваемое как функция, т.е., называется функцией регрессиина.

На практике часто предпосылки корреляционного анализа нарушаются: один из признаков оказывается величиной не случайной или признаки не имеют совместного нормального распределения, но статистическая зависимость между ними существует. Для изучения связи между признаками в этом случае существует общий показатель зависимости признаков, в основу которого заложено понятие общей (или полной) дисперсии.

Полной называется дисперсия (рассеянность значений) признака относительно его математического ожидания. Для результативного признака полная дисперсия записывается в виде

(3.2)

Полную дисперсию можно разложить на две составляющие, одна из которых характеризует влияние признака на, другая – влияние прочих признаков:

(3.3)

Первое слагаемое обозначают и называют дисперсией функции регрессии относительно математического ожидания признака. Эта дисперсия измеряет влияние признакана. Второе слагаемое обозначаюти называют дисперсией признакаотносительно функции регрессии или остаточной дисперсией, которая измеряет влияние напрочих признаков.

Разделив обе части равенства (3.3) на полную дисперсию, получим

или, (3.4)

где - теоретическое корреляционное отношение, значения которого находятся в диапазоне от 0 до 1 и которое является показателем тесноты группировки точек около кривой регрессии независимо от ее вида. Корреляционное отношение, полученное по выборке, называют выборочным корреляционным отношением.