1.10. Метод стохастической аппроксимации
Метод стохастической аппроксимации был разработан в 1951 г. для определения единственного корня уравнения в случае, когда значение этой функции измеряется с некоторой случайной ошибкой:
. | (1.66) |
Алгоритмы, реализующие метод, получили название алгоритмов Робинса–Монро. Затем подобные алгоритмы были использованы для отыскания экстремума унимодальной функции , также включающей случайный шум согласно уравнению (1.66). Алгоритмы такого типа называют алгоритмами Кифера–Волфовитца. А. Дворецким была сформулирована и доказана теорема, которая дала наиболее слабые условия сходимости для любых типов алгоритмов стохастической аппроксимации. Пользуясь результатами этой теоремы, можно построить различные алгоритмы идентификации параметров модели.
Получим простейший алгоритм стохастической аппроксимации на примере решения задачи по отысканию оценки истинного значения величины X на основе ее n измерений: xi, i = 1, 2, …, n. Пусть , где – некоторая случайная помеха с нулевым средним и конечной дисперсией: , . Из математической статистики известно, что наилучшей оценкой X будет среднее арифметическое ее n измерений:
. | (1.67) |
Согласно закону больших чисел Колмогорова можно записать
. | (1.68) |
Получим рекуррентную формулу для вычисления по среднему значению выборки после n измерений и поступившему новому измерению . По формуле (1.67) для n + 1 измерений имеем:
. | (1.69) |
Подставляя выражение (1.67) в (1.69), получим:
. | (1.70) |
Последнее равенство преобразуем к виду:
. | (1.71) |
Это рекуррентное выражение и есть алгоритм стохастической аппроксимации для определения оценки параметра x по его зашумленным наблюдениям. При этом новая оценка равна сумме старой оценки и корректирующего члена с некоторым весовым коэффициентом . С ростом n эти весовые коэффициенты образуют убывающую последовательность
, | (1.72) |
которая обладает еще двумя важнейшими асимптотическими свойствами:
, | (1.73) |
. | (1.74) |
Эти свойства можно объяснить следующим образом. Вес корректирующего члена, т. е. его влияние на оценку, будет уменьшаться в соответствии с условием (1.72), поскольку закон больших чисел гарантирует, что при этой процедуре оценка стремится к истинному значению параметра с увеличением числа итераций. Однако коррекция должна производиться вне зависимости от того, сколько итераций уже было сделано с начала процедуры оценивания, что и отражается условием (1.73), в котором сумма корректирующей последовательности расходится, значит эффект от корректирующего члена никогда не будет равен нулю. Свойство (1.74) является необходимым для сходимости общей процедуры стохастической аппроксимации, поскольку при большом числе итераций оно влечет за собой уменьшение влияния индивидуальных ошибок.
Кроме последовательности вида этим условиям удовлетворяют и многие другие последовательности, например , где q > 1/2. Таким образом, любой рекуррентный алгоритм вида (1.71) или в более общем случае вида , где последовательность весовых коэффициентов при корректирующем члене удовлетворяет условиям (1.72)–(1.74), согласно теореме Дворецкого является алгоритмом стохастической аппроксимации (типа Робинса–Монро) и обеспечивает сходимость оценок к истинным параметрам по вероятности.
В качестве примера рассмотрим алгоритм стохастической аппроксимации для оценивания параметров линейной регрессии. При этом последовательность весовых коэффициентов, удовлетворяющих условиям (1.72)–(1.74), выберем в виде ряда , где . Корректирующий член или невязку в общей рекуррентной формуле можно определить, используя скалярный квадратичный показатель качества идентификации:
, | (1.75) |
откуда невязку можно получить, продифференцировав этот показатель по :
. | (1.76) |
Окончательно имеем следующий рекуррентный алгоритм стохастической аппроксимации для оценивания параметров линейной регрессии:
. | (1.77) |
Важным достоинством алгоритмов стохастической аппроксимации является то, что для их применения не требуется никаких специальных знаний о вероятностном распределении или каких-либо статистических характеристиках ошибки измерения. Исключение составляет информация о том, что ошибки измерения образуют последовательность независимых случайных величин с нулевым средним (для несмещенности оценок) и ограниченной дисперсией. Заметим, что на практике обеспечение этих условий обычно не вызывает затруднений. Кроме того, алгоритмы стохастической аппроксимации очень просты при вычислениях. Однако при этом они не обладают какими-либо оптимальными свойствами и непригодны для отыскания глобального экстремума многоэкстремальных функций, а также очень медленно сходятся к истинному значению параметра. Это связано с тем, что основное внимание в этих алгоритмах согласно теореме Дворецкого уделяется самому факту сходимости, а не скорости этой сходимости.
Эта проблема была разрешена во многих алгоритмах, ускоряющих процедуру сходимости по сравнению с обычным алгоритмом стохастической аппроксимации. Одним из наиболее удачных и эффективных является алгоритм, в котором коэффициенты остаются постоянными до тех пор, пока корректирующий член сохраняет свой знак, и только после изменения знака этого члена берется следующий элемент последовательности. Дж. Саридисом было доказано, что такая схема обеспечивает сходимость по вероятности и значительно ускоряет скорость сходимости.
- Е. Д. Агафонов, о. В. Шестернёва Математическое моделирование линейных динамических систем
- © Сибирский федеральный университет, 2011
- Оглавление
- Предисловие
- Глава 1 Параметрические регрессионные модели
- 1.1. Линейная регрессия
- 1.2. Метод наименьших квадратов. Критерий метода наименьших квадратов
- 1.3. Идентификация линейных по параметрам моделей с использованием метода наименьших квадратов
- 1.4. Линейный метод наименьших квадратов с использованием ортогональных полиномов
- 1.5. Рекуррентный метод наименьших квадратов
- 1.6. Линейная аппроксимация метода наименьших квадратов
- 1.7. Методы максимального правдоподобия и максимума апостериорной вероятности
- 1.8. Метод инструментальных переменных
- 1.9. Реализация метода наименьших квадратов в пакете matlab
- 1.10. Метод стохастической аппроксимации
- Контрольные задания
- Глава 2 Непараметрические регрессионные модели
- 2.1. Непараметрическая оценка плотности распределения вероятностей Розенблатта–Парзена
- 2.2. Непараметрическая оценка регрессии Надарая–Ватсона
- Контрольные задания
- Глава 3 модели линейных динамических систем
- 3.1. Способы описания линейных динамических систем
- 3.2. Модель динамической системы в виде представления Фурье (модель сигнала)
- 3.3. Частотный метод описания линейных динамических систем
- 3.4. Определение передаточной функции линейных динамических систем на основе спектральных плотностей
- Контрольные задания
- Глава 4 непараметрические модели линейных динамических систем
- 4.1. Постановка задачи идентификации линейных динамических систем
- 4.2. Математическое описание и построение непараметрической модели линейных динамических систем
- 4.3. Оптимизация непараметрических моделей линейных динамических систем
- 4.4. Непараметрические модели линейных динамических систем на основе уравнения Винера–Хопфа
- Контрольные задания
- Заключение
- Библиографический список
- Англо-русский словарь терминов
- Сходимость статистических оценок
- 660041, Г. Красноярск, пр. Свободный, 79.
- 660041, Г. Красноярск, пр. Свободный, 82а.