Взаимосвязи случайных величин Парная корреляция
Прямое толкование термина "корреляция" — стохастическая, вероятная, возможная связь между двумя (парная) или несколькими (множественная) случайными величинами. При решении различных задач часто возникают ситуации, когда необходимо численно оценить глубину связи между случайными величинами. Для оценки глубины связи для различных типов данных вводятся различные меры. Одной из наиболее часто применяемых мер является коэффициент корреляции, предложенный Пирсоном. Коэффициент корреляции рассчитывается по формуле
и оценивает тесноту линейной связи между случайными величинами и . Можно показать, что коэффициент корреляции принимает значения от -1 до 1. Знак коэффициента характеризует характер поведения в среднем одной случайной величины относительно другой. Если при возрастании (убывании) одной с.в. другая также возрастает (убывает), то коэффициент корреляции имеет положительный знак, если же при возрастании (убывании) одной из них – другая убывает (возрастает), он меньше нуля. Если коэффициент корреляции равен нулю, то X и Y называют некоррелированными. Это не означает, что они независимы, могут существовать какие-то, как правило - нелинейные связи величин, при которых коэффициент корреляции равен нулю.
Обратное всегда верно - если величины независимы, то . Если модуль равен 1, то есть все основания предполагать наличие линейной связи между Y и X.
Схематичное изображение различных вариантов зависимости между и приведено на рисунках ниже
Корреляция по Пирсону определяет степень, с которой значения двух переменных "пропорциональны" друг другу, при этом значение коэффициента корреляции не зависит от масштаба измерения. Например, корреляция между ростом и весом будет одной и той же, независимо от того, проводились измерения в дюймах и фунтах или в сантиметрах и килограммах. Пропорциональность означает просто линейную зависимость. Корреляция высокая, если на графике зависимость "можно представить" прямой линией (с положительным или отрицательным углом наклона).
- Введение
- Литература
- Элементы теории вероятностей
- Случайное событие и вероятность
- Определение вероятности
- Принцип практической невозможности маловероятных событий
- Формулы комбинаторики
- Условная вероятность
- Независимые события
- Свойства вероятности
- Формула полной вероятности
- Формула Байеса
- Случайная величина
- Свойства математического ожидания
- Дисперсия дискретной с.В.
- Свойства дисперсии
- Закон больших чисел.
- Функция распределения случайной величины
- Свойства функции распределения
- Односторонние и двухсторонние значения вероятностей
- Нормальное распределение
- Взаимосвязи случайных величин Парная корреляция
- Элементы математической статистики
- Генеральная и выборочная совокупность
- Основные шкалы измерений
- Точечные оценки параметров распределения
- Проверка статистических гипотез
- Исследование зависимости между двумя характеристиками
- Лабораторная работа Задание 1. Нахождение выборочных характеристик
- Задача 1.1.
- Задача 1.2.
- Задача 1.3.
- Задача 1.4.
- Задача 1.5.
- Задача 1.6.
- Задание 2 Построение гистограммы выборки
- Задача 2.1
- Задание 3 Проверка статистических гипотез
- Одновыборочный критерий Стьюдента
- Двухвыборочный критерий Стьюдента
- Критерий согласия хи-квадрат
- Задание 4. Интервальные оценки
- Задача 4.1.
- Задача 4.2.
- Анализ значения коэффициента корреляции
- Построение линий регрессии
- Преподавателю и студенту было предложено расположить 15 профессий в порядке их восстребованности на рынке. В результате получилась следующая таблица:
- Оглавление