Проектирование отказоустойчивых распределенных информационных систем. Для студентов - страница 22

Шрифт
Интервал


(α), уменьшающую его априорную неосведомленность так, что апостериорная (после получения сообщения β) неопределенность состояния системы становится равной Н (α), Тогда количество информации J (α), о системе α, полученное в сообщении β, определится как:

J (α) = Н (α) – Н (α)

т.е. количество информации измеряется изменением (уменьшением) неопределенности состояния системы. Если конечная неопределенность H (α) обратится в нуль, то первоначальное неполное знание заменится полным знанием и количество информации станет равным:

J (α) = Н (α)

Иными словами, энтропия системы Н (α) может рассматриваться как мера недостающей информации. Энтропия системы H (α), имеющей N возможных состояний согласно формуле ШЕННОНА, равна:


N

Н (α) = -, ∑ P>i log P>i

i=1

где P>i -вероятность того, что система находится в i-м состоянии.

Для случая, когда все состояния системы равновероятны, ее энтропия определяется по формуле:

Н (α) = log N.

Рассмотрим пример. По каналу связи передается n- разрядное сообщение, использующее m различных символов.

Так как количество всевозможных кодовых комбинаций определяется по формуле N = m >n, то при равно вероятности появления любой из них количество информации, приобретенной абонентом в результате получения сообщения, будет определяться по формуле ХАРТЛИ:

I = log N = n log m.

Если в качестве основания логарифма принять m, то формула упростится и количество информации станет равным:

I = n.

В данном случае количество информации (при условии полного априорного незнания абонентном содержания сообщения) будет равно объему данных I = У, полученных по каналу связи.

Наиболее часто используются двоичные и десятичные логарифмы. Единицами измерения в этих случаях будут соответственно «бит» и «дит».

Степень информативности сообщения определяется отношением количества информации к объему данных, т.е.

Y = 1/ V, причем 0 

где: Y – характеризует лаконичность сообщения.

С увеличением Y уменьшаются объемы работы по преобразованию информации (данных) в системе. Поэтому стремятся к повышению информативности, для чего разрабатываются специальные методы оптимального кодирования информации.

Семантическая мера информации. Синтаксические меры количества информации в общем случае не могут быть непосредственно использованы для измерения смыслового содержания, ибо имеют дело с обезличенной информацией, не выражающей смыслового отношения к объекту.