Разделяй и властвуй
Рассмотрим теперь построение алгоритмов оптимизации структуры и параметров. Несмотря на их огромное разнообразие, можно выделить основную черту: оптимизируемый объект является "черным ящиком", который оптимизируется целиком. Для полученного на очередном шаге набора параметров достигнутый результат оценивается только по общей оценочной функции. Это приводит к тому, что малые улучшения в работе отдельных локальных подсистем не закрепляются на фоне ухудшения работы остальных. Можно назвать еще некоторые недостатки подобной реализации — сложности в подборе шага, коэффициента мутацийи т. д., но это уже решаемые мелочи.
Незакрепление малых улучшений в подсистемах при последовательной адаптации приводит к одному результату — в сложных системах, состоящих из большого количества подсистем, скорость обучения катастрофически снижается.
Здесь примером могли бы служить N колес с буквами А и В на ободе, где буквы А занимали бы k -ю долю окружности, аВ — остальную ее часть. Все колеса приводят во вращение и дают им остановиться; остановка колеса на букве А считается "успехом". Сравним три способа сложения этих частных успехов в Большой Успех, который будем считать достигнутым только тогда, когда все колеса остановятся на букве А.
Случай 1. Приводятся во вращение все N колес; если все они дадут букву А, регистрируется Успех и пробы заканчиваются; в других случаях колеса снова приводятся во вращение — и так далее, пока все А не появятся сразу. В этом случае потребуется в среднем (1/k)*N проб.
Случай 2. Вращается 1-е колесо; если оно остановится на А, оно остается в этом положении; в противном случае его вращают снова. Когда оно, наконец, остановится на А, таким же образом вращают 2-е колесо и т. д. Так поступают до тех пор, пока всеN колес не остановятся на секторе А. Здесь в среднем потребуется N/k проб.
Случай 3. Приводятся во вращение все N колес; те, которые покажут А, остаются в этом положении, а те, которые покажут В, вращаются снова. При дальнейших появлениях А соответствующие колеса также остаются в покое. Среднее число проб равно среднему числу проб в самой длинной серии из N серий проб с одним колесом и может быть найдено из распределения длин таких серий; оно будет несколько больше 1/k.
Случайный поиск служит полным аналогом 1-го случая. Многие из остальных алгоритмы занимают промежуточное положение между первым и вторым случаем (случайный поиск в подпространствах, генетический алгоритм и т. д.). Очевидно, что человек, как правило, решает свои проблемы независимо одной от другой, что соответствует третьему случаю.
Таким образом, перспективные алгоритмы должны предусматривать возможность разделения целей на подцели, которые не зависят друг от друга.
- Лекция 1 Цель преподавания дисциплины
- Терминология
- Философские аспекты проблемы систем ии (возможность существования, безопасность, полезность).
- История развития систем ии.
- Лекция 2 Различные подходы к построению систем ии
- Вспомогательные системы нижнего уровня (распознавание образов зрительных и звуковых, идентификация, моделирование, жесткое программирование) и их место в системах ии
- Лекция 3 Понятие образа
- Проблема обучения распознаванию образов (оро)
- Геометрический и структурный подходы.
- Гипотеза компактности
- Обучение и самообучение
- Лекция 4: Адаптация и обучение
- Персептроны
- Нейронные сети История исследований в области нейронных сетей
- Модель нейронной сети с обратным распространением ошибки (back propagation)
- Нейронные сети: обучение без учителя
- Нейронные сети Хопфилда и Хэмминга
- Метод потенциальных функций
- Метод группового учета аргументов мгуа Метод наименьших квадратов
- Общая схема построения алгоритмов метода группового учета аргументов (мгуа)
- Алгоритм с ковариациями и с квадратичными описаниями
- Метод предельных упрощений (мпу)
- Коллективы решающих правил
- Лекция 5: Методы и алгоритмы анализа структуры многомерных данных
- Иерархический кластерный анализ
- Стандартизация
- Быстрый кластерный анализ
- Кластерный анализ
- Иерархическое группирование
- Лекция 6: Логический подход к построению систем ии Неформальные процедуры
- Алгоритмические модели
- Продукционные модели
- Режим возвратов
- Логический вывод
- Зависимость продукций
- Продукционные системы с исключениями
- Язык Рефал
- Лекция 7: Экспертные системы Экспертные системы, базовые понятия
- Экспертные системы, методика построения
- Этап идентификации
- Этап концептуализации
- Этап формализации
- Этап выполнения
- Этап тестирования
- Этап опытной эксплуатации
- Экспертные системы, параллельные и последовательные решения
- Пример эс, основанной на правилах логического вывода и действующую в обратном порядке
- Часть 1.
- Лекция 8: Машинная эволюция Метод перебора как наиболее универсальный метод поиска решений. Методы ускорения перебора
- Эволюция
- Генетический алгоритм (га)
- Как создать хромосомы?
- Как работает генетический алгоритм?
- Эволюционное (генетическое) программирование
- Автоматический синтез технических решений
- Поиск оптимальных структур
- Алгоритм поиска глобального экстремума
- Алгоритм конкурирующих точек
- Алгоритм случайного поиска в подпространствах
- Некоторые замечания относительно использования га
- Лекция 9. Автоматизированный синтез физических принципов действия. Синтез речи Фонд физико-технических эффектов
- Синтез физических принципов действия по заданной физической операции
- Заключительные замечания
- Слабосвязанный мир
- Разделяй и властвуй
- Синтез речи
- Голосовой аппарат человека
- Структура языка
- Технология
- Методы синтеза
- Волновой метод кодирования
- Параметрическое представление
- Синтез по правилам
- Конвертация текста в речь
- Система преобразования текста в речь miTalk
- Анализ текста
- Морфологический анализ
- Правила "буква-звук" и лексическое ударение
- Парсинг
- Модификация ударения и фонологические уточнения
- Просодическая рамка
- Синтез фонетических сегментов
- Оценка синтетической речи