7.3.2. Выбор вида уравнения регрессии
Задача определения функциональной зависимости, наилучшим образом описывающей ЭД, связана с преодолением ряда принципиальных трудностей. В общем случае для стандартизованных данных функциональную зависимость показателя от параметров можно представить в виде
, (7.5)
где f – заранее не известная функция, подлежащая определению;
ε - ошибка аппроксимации ЭД.
Указанное уравнение принято называть выборочным уравнением регрессии y на u. Это уравнение характеризует зависимость между вариацией показателя и вариациями факторов. А мера корреляции измеряет долю вариации показателя, которая связана с вариацией факторов. Иначе говоря, корреляцию показателя и факторов нельзя трактовать как связь их уровней, а регрессионный анализ не объясняет роли факторов в создании показателя.
Еще одна особенность касается оценки степени влияния каждого фактора на показатель. Регрессионное уравнение не обеспечивает оценку раздельного влияния каждого фактора на показатель, такая оценка возможна лишь в случае, когда все другие факторы не связаны с изучаемым. Если изучаемый фактор связан с другими, влияющими на показатель, то будет получена смешанная характеристика влияния фактора. Эта характеристика содержит как непосредственное влияние фактора, так и опосредованное влияние, оказанное через связь с другими факторами и их влиянием на показатель.
В регрессионное уравнение не рекомендуется включать факторы, слабо связанные с показателем, но тесно связанные с другими факторами. Не включают в уравнение и факторы, функционально связанные друг с другом (для них коэффициент корреляции равен 1). Включение таких факторов приводит к вырождению системы уравнений для оценок коэффициентов регрессии и к неопределенности решения.
Функция f должна подбираться так, чтобы ошибка ε в некотором смысле была минимальна. Существует бесконечное множество функций, описывающих ЭД абсолютно точно (ε = 0), т.е. таких функций, которые для всех значений параметров uj,2 , uj,3 , …, uj,т принимают в точности соответствующие значения показателя yi , i =1, 2, …, п. Вместе с тем, для всех других значений параметров, отсутствующих в результатах наблюдений, значения показателя могут принимать любые значения. Понятно, что такие функции не соответствуют действительной связи между параметрами и показателем.
В целях выбора функциональной связи заранее выдвигают гипотезу о том, к какому классу может принадлежать функция f, а затем подбирают "лучшую" функцию в этом классе. Выбранный класс функций должен обладать некоторой "гладкостью", т.е. "небольшие" изменения значений аргументов должны вызывать "небольшие" изменения значений функции (ЭД содержат некоторые ошибки измерений, а само поведение объекта подвержено влиянию помех, маскирующих истинную связь между параметрами и показателем).
Простым, удобным для практического применения и отвечающим указанному условию является класс полиномиальных функций
(7.6)
Для такого класса задача выбора функции сводится к задаче выбора значений коэффициентов a0 , aj , ajk , …, ajj , … . Однако универсальность полиномиального представления обеспечивается только при возможности неограниченного увеличения степени полинома, что не всегда допустимо на практике, поэтому приходится применять и другие виды функций.
Частным случаем, широко применяемым на практике, является полином первой степени или уравнение линейной регрессии
. (7.7)
Это уравнение в регрессионном анализе следует трактовать как векторное, ибо речь идет о матрице данных
, i =1, 2, … , n. (7.8)
Обычно стремятся обеспечить такое количество наблюдений, которое превышало бы количество оцениваемых коэффициентов модели. Для линейной регрессии при п > т количество уравнений превышает количество подлежащих определению коэффициентов полинома. Но и в этом случае нельзя подобрать коэффициенты таким образом, чтобы ошибка в каждом скалярном уравнении обращалась в ноль, так как к неизвестным относятся аj и ei, их количество n + т – 1, т.е. всегда больше количества уравнений п. Аналогичные рассуждения справедливы и для полиномов степени, выше первой.
Для выбора вида функциональной зависимости можно рекомендовать следующий подход:
в пространстве параметров графически отображают точки со значениями показателя. При большом количестве параметров можно строить точки применительно к каждому из них, получая двумерные распределения значений;
по расположению точек и на основе анализа сущности взаимосвязи показателя и параметров объекта делают заключение о примерном виде регрессии или ее возможных вариантах;
после расчета параметров оценивают качество аппроксимации, т.е. оценивают степень близости расчетных и фактических значений;
если расчетные и фактические значения близки во всей области задания, то задачу регрессионного анализа можно считать решенной. В противном случае можно попытаться выбрать другой вид полинома или другую аналитическую функцию, например периодическую.
- Лекции по дисциплине курса «Теория вероятностей и математическая статистика»
- Часть II
- Введение
- 1. Закон больших чисел
- 1.2. Неравенства чебышева
- 1.3. Сходимость по вероятности
- 1.4.Теоремы чебышева
- 1.4.1.Первая теорема Чебышева.
- 1.4.2. Вторая теорема Чебышева:
- 1.5. Теорема бернулли
- 1.6. Центральная предельная теорема
- 1.7. Предельные теоремы
- 1.7.1. Локальная теорема Муавра-Лапласа.
- 1.7.2. Интегральная теорема Муавра-Лапласа.
- 2. Базовые понятия математической статистики
- 2.1. Эмпирическая функция распределения
- 2.2. Гистограмма
- 2.3. Оценки параметров распределения и их свойства
- 2.4. Оценки моментов и квантилей распределения
- 2.5. Точечная оценка параметров распределения
- 2.5.1. Сущность задачи точечного оценивания параметров
- 2.5.2. Метод максимального правдоподобия
- 2.5.3. Метод моментов
- 2.5.4. Метод квантилей
- 3. Проверка статистических гипотез
- 3.1. Сущность задачи проверки статистических гипотез
- 3.2. Типовые распределения
- 3.2.1. Нормальное распределение
- 3.2.2. Распределение χ2 (хи-квадрат)
- 3.2.3. Распределение Стьюдента
- 3.3.4. Распределение Фишера
- 3.3. Проверка гипотез о законе распределения
- 3.3.1. Критерий хи-квадрат к. Пирсона
- 3.3.2. Критерий а.Н. Колмогорова
- 3.3.3. Критерий р. Мизеса
- 4. Интервальная оценка параметров распределения
- 4.1. Сущность задачи интервального оценивания параметров
- 4.2. Общий метод построения доверительных интервалов
- 4.3. Доверительный интервал для математического ожидания
- 4.4. Доверительный интервал для дисперсии
- 4.5. Доверительный интервал для вероятности
- 5. Аппроксимация закона распределения экспериментальных данных
- 5.1. Задачи аппроксимации
- 5.2. Аппроксимация на основе типовых распределений
- 6. Обработка однотипных выборок
- 6.1. Однотипные выборки эд и задачи их обработки
- 6.2. Объединение выборок
- 6.2.1. Объединение однородных выборок
- 6.2.2. Объединение неоднородных выборок
- 6.3. Однофакторный дисперсионный анализ
- 6.3.1. Задачи дисперсионного анализа
- 6.3.2. Проверка однородности совокупности дисперсий
- 6.3.3. Сравнение факторной и остаточной дисперсий
- 7. Корреляционный и регрессионный анализ
- 7.1. Матрица данных
- 7.2. Корреляционный анализ
- 7.3. Регрессионный анализ
- 7.3.1. Постановка задачи
- 7.3.2. Выбор вида уравнения регрессии
- 7.3.4. Вычисление коэффициентов уравнения регрессии