logo search
part1

3.1.4. Энтропия

В теории информации энтропия вводится для систем, которые могут находиться в различных состояниях с различной вероятностью .

Шенноном было показано, что состояние неопределенности характеризуется энтропией, которая вводится как

.

Мерой информации, содержащейся в сообщении, является изменение энтропии. Если сообщение полностью определяет текущее состояние системы, то после его получения . Тогда информация, содержащаяся в сообщении, .

Разобьем фазовое пространство динамической системы на непересекающиеся множества . Пусть каждое множество имеет диаметр не более , а его мера равна . Можно определить количество информации, которое дает знание текущего состояния системы с точностью . С течением времени, если система хаотическая (перемешивающая), образы почти всех множеств будут иметь непустое пересечение со всеми остальными множествами . Перемешивающая система с течением времени увеличивает неопределенность своего состояния. В таком случае говорят, что система производит информацию. Скорость производства информации или неопределенности называют метрической энтропией динамической системы.

Энтропия динамической системы позволяет определить время предсказуемости ее поведения

.

Различают объемную и линейную предсказуемость. Объемная предсказуемость зависит от нарастания количества фазовых объемов , по которым расползается пятно первоначальной погрешности. Линейная предсказуемость определяется разницей между истинной и возмущенной траекториями . Энтропия связана с объемной трактовкой предсказуемости. Линейная трактовка связана с характеристическими показателями Ляпунова.