Персептроны
Пока о проблеме обучения распознаванию образов удавалось говорить в общих чертах, не выделяя конкретные методы или алгоритмы, — не возникало и трудностей, появляющихся всяких раз, когда приходится иметь дело с огромным множеством примеров, у которых общий подход к решению проблемы ОРО. Коварство самой проблемы состоит в том, что, на первый взгляд, все методы и алгоритмы кажутся совершенно различными и, что самое неприятное, часто никакой из них не годится для решения той задачи, которую крайне необходимо срочно решить. И тогда появляется желание выдумать новый алгоритм, который, может быть, достигнет цели. Очевидно, именно это привело к возникновению огромного множества алгоритмов, в котором не так-то легко разобраться.
Один из методов решения задач обучения распознаванию образов основан на моделировании гипотетического механизма человеческого мозга. Структура модели заранее постулируется. При таком подходе уровень биологических знаний или гипотез о биологических механизмах является исходной предпосылкой, на которой базируются модели этих механизмов. Примером такого направления в теории и практике проблемы ОРО является класс устройств, называемых персептронами. Нужно отметить, что персептроны на заре своего возникновения рассматривались только как эвристические модели механизма мозга. Впоследствии они стали основополагающей схемой в построении кусочно-линейных моделей, обучающихся распознаванию образов.
Рис. 4.1. Персептрон
В наиболее простом виде персептрон (рис. 4.1.) состоит из совокупности чувствительных (сенсорных) элементов ( S -элементов), на которые поступают входные сигналы. S -элементы случайным образом связаны с совокупностью ассоциативных элементов ( А -элементов), выход которых отличается от нуля только тогда, когда возбуждено достаточно большое число S-элементов, воздействующих на один А -элемент. А -элементы соединены с реагирующими элементами ( R -элементами) связями, коэффициенты усиления ( v ) которых переменны и изменяются в процессе обучения. Взвешенные комбинации выходов R -элементов составляют реакцию системы, которая указывает на принадлежность распознаваемого объекта определенному образу. Если распознаются только два образа, то в персептроне устанавливается только один R -элемент, который обладает двумя реакциями — положительной и отрицательной. Если образов больше двух, то для каждого образа устанавливают свой R -элемент, а выход каждого такого элемента представляет линейную комбинацию выходов A -элементов:
( 4.1) |
где Rj — реакция j -го R -элемента; xi — реакция i -го A -элемента; vij — вес связи от i -го A -элемента к j -муR элементу; — порог j -го R -элемента.
Аналогично записывается уравнение i -го A -элемента:
( 4.2) |
Здесь сигнал yk может быть непрерывным, но чаще всего он принимает только два значения: 0 или 1. Сигналы от S -элементов подаются на входы А -элементов с постоянными весами, равными единице, но каждый А -элемент связан только с группой случайно выбранных S -элементов. Предположим, что требуется обучить персептрон различать два образа V1 и V2. Будем считать, что в персептроне существует два R -элемента, один из которых предназначен образу V1, а другой — образу V2.Персептрон будет обучен правильно, если выход R1 превышает R2, когда распознаваемый объект принадлежит образу V1, и наоборот. Разделение объектов на два образа можно провести и с помощью только одного R -элемента. Тогда объекту образаV1 должна соответствовать положительная реакция R -элемента, а объектам образа V2 — отрицательная.
Персептрон обучается путем предъявления обучающей последовательности изображений объектов, принадлежащих образам V1и V2. В процессе обучения изменяются веса vi А -элементов. В частности, если применяется система подкрепления с коррекцией ошибок, прежде всего учитывается правильность решения, принимаемого персептроном. Если решение правильно, то веса связей всех сработавших А -элементов, которые ведут к R -элементу, выдавшему правильное решение, увеличиваются, а веса несработавших А -элементов остаются неизменными. Можно оставлять неизменными веса сработавших А -элементов, но уменьшать веса несработавших. В некоторых случаях веса сработавших связей увеличивают, а несработавших — уменьшают. После процесса обучения персептрон сам, без учителя, начинает классифицировать новые объекты.
Если персептрон действует по описанной схеме и в нем допускаются лишь связи, идущие от бинарных S -элементов к A -элементам и от A -элементов к единственному R -элементу, то такой персептрон принято называть элементарным -персептроном. Обычно классификация C(W) задается учителем. Персептрон должен выработать в процессе обучения классификацию, задуманную учителем.
О персептронах было сформулировано и доказано несколько основополагающих теорем, две из которых, определяющие основные свойства персептрона, приведены ниже.
Теорема 1. Класс элементарных -персептронов, для которых существует решение для любой задуманной классификации, не является пустым.
Эта теорема утверждает, что для любой классификации обучающей последовательности можно подобрать такой набор (из бесконечного набора) А -элементов, в котором будет осуществлено задуманное разделение обучающей последовательности при помощи линейного решающего правила .
Теорема 2. Если для некоторой классификации C(W) решение существует, то в процессе обучения -персептрона с коррекцией ошибок, начинающегося с произвольного исходного состояния, это решение будет достигнуто в течение конечного промежутка времени.
Смысл этой теоремы состоит в том, что если относительно задуманной классификации можно найти набор А-элементов, в котором существует решение, то в рамках этого набора оно будет достигнуто в конечный промежуток времени.
Обычно обсуждают свойства бесконечного персептрона, т. е. персептрона с бесконечным числом А-элементов со всевозможными связями с S -элементами (полный набор A -элементов). Для таких персептронов решение всегда существует, а раз оно существует, то оно и достижимо в -персептронах с коррекцией ошибок.
Очень интересную область исследований представляют собой многослойные персептроны и персептроны с перекрестными связями, но теория этих систем практически еще не разработана.
- Лекция 1 Цель преподавания дисциплины
- Терминология
- Философские аспекты проблемы систем ии (возможность существования, безопасность, полезность).
- История развития систем ии.
- Лекция 2 Различные подходы к построению систем ии
- Вспомогательные системы нижнего уровня (распознавание образов зрительных и звуковых, идентификация, моделирование, жесткое программирование) и их место в системах ии
- Лекция 3 Понятие образа
- Проблема обучения распознаванию образов (оро)
- Геометрический и структурный подходы.
- Гипотеза компактности
- Обучение и самообучение
- Лекция 4: Адаптация и обучение
- Персептроны
- Нейронные сети История исследований в области нейронных сетей
- Модель нейронной сети с обратным распространением ошибки (back propagation)
- Нейронные сети: обучение без учителя
- Нейронные сети Хопфилда и Хэмминга
- Метод потенциальных функций
- Метод группового учета аргументов мгуа Метод наименьших квадратов
- Общая схема построения алгоритмов метода группового учета аргументов (мгуа)
- Алгоритм с ковариациями и с квадратичными описаниями
- Метод предельных упрощений (мпу)
- Коллективы решающих правил
- Лекция 5: Методы и алгоритмы анализа структуры многомерных данных
- Иерархический кластерный анализ
- Стандартизация
- Быстрый кластерный анализ
- Кластерный анализ
- Иерархическое группирование
- Лекция 6: Логический подход к построению систем ии Неформальные процедуры
- Алгоритмические модели
- Продукционные модели
- Режим возвратов
- Логический вывод
- Зависимость продукций
- Продукционные системы с исключениями
- Язык Рефал
- Лекция 7: Экспертные системы Экспертные системы, базовые понятия
- Экспертные системы, методика построения
- Этап идентификации
- Этап концептуализации
- Этап формализации
- Этап выполнения
- Этап тестирования
- Этап опытной эксплуатации
- Экспертные системы, параллельные и последовательные решения
- Пример эс, основанной на правилах логического вывода и действующую в обратном порядке
- Часть 1.
- Лекция 8: Машинная эволюция Метод перебора как наиболее универсальный метод поиска решений. Методы ускорения перебора
- Эволюция
- Генетический алгоритм (га)
- Как создать хромосомы?
- Как работает генетический алгоритм?
- Эволюционное (генетическое) программирование
- Автоматический синтез технических решений
- Поиск оптимальных структур
- Алгоритм поиска глобального экстремума
- Алгоритм конкурирующих точек
- Алгоритм случайного поиска в подпространствах
- Некоторые замечания относительно использования га
- Лекция 9. Автоматизированный синтез физических принципов действия. Синтез речи Фонд физико-технических эффектов
- Синтез физических принципов действия по заданной физической операции
- Заключительные замечания
- Слабосвязанный мир
- Разделяй и властвуй
- Синтез речи
- Голосовой аппарат человека
- Структура языка
- Технология
- Методы синтеза
- Волновой метод кодирования
- Параметрическое представление
- Синтез по правилам
- Конвертация текста в речь
- Система преобразования текста в речь miTalk
- Анализ текста
- Морфологический анализ
- Правила "буква-звук" и лексическое ударение
- Парсинг
- Модификация ударения и фонологические уточнения
- Просодическая рамка
- Синтез фонетических сегментов
- Оценка синтетической речи