Следует заметить, что различие между количеством информации и энтропией в ряде случаев носит условный характер. Так, если рассматривать энтропию всех возможных сообщений длиной n, то эта величина будет совпадать с количеством информации, задаваемой формулой (6-3). И наоборот, если нас интересует информация на один символ, содержащаяся в ансамбле сообщений, то эта величина определяется величиной энтропии этого ансамбля. При передаче сообщений необходимо дать математическую формулировку данного в начале второй части определения количества информации как меры снятия неопределенности, которая численно равна разности априорной и апостериорной энтропии принимаемого сигнала:
I=Н-Н0, (7-1)
где H - априорная, Н0 - апостериорная энтропии. При этом определении, которое иногда называется третьим определением количества информации (имея в виду, что первое - по Хартли, второе - по Шеннону), считается, что информация относится к одному символу сообщения или энтропия-к определенной длине n сообщения. Это определение одинаково справедливо для дискретных и непрерывных сообщений. В последнем случае вообще трудно установить существенную разницу между количеством информации и энтропией. Если обозначить через
Н(х) - энтропию множества передаваемых символов (на входе канала связи);
Н(y) - энтропию множества принимаемых символов;
Н(х,y) - энтропию множества всевозможных пар (xi, yk);
H(x|y) - энтропию множества отправляемых символов, оставшуюся после приема символа yk;
H(y|xk) - энтропию множества принимаемых символов при условии, что известен отправленный символ;
H(х|y) и H(y|x) - математические ожидания величин Н(x|yk) и Н(y|xk), то в соответствии с формулой (7-1) количество информации при приеме символа yk определяется по формуле
Ik=Н(х)-H(х|yk).
Очевидно, что величина Ik является случайной, и необходимо ее усреднить по всему множеству принимаемых символов, так же как это было сделано при выводе формулы (6-4):
I=М[Ik]=Н(x)-М[Н(х|yk)]=Н(х)-Н(х|y). (7-2)
Учитывая свойства взаимной плотности распределения вероятностей двух случайных величин [Л. 21], нетрудно убедиться в справедливости формулы
H(х,y)=Н(х)+Н(y|х)=Н(y)+Н(х|y) (7-3)
или
Н(х)=Н(y)+Н(х|y)-Н(y|х).
Подставив это выражение в формулу (7-2), получим:
I=H(y)-H(y|х). (7-4)
Формулы (7-2) и (7-4) определяют свойство симметрии, заключающееся в том, что средняя неопределенность того, какой символ будет получен, снимаемая при посылке конкретного символа, равна средней неопределенности того, какой символ был отправлен, снимаемой при приеме символа. С помощью полученной формулы (7-2) нетрудно вывести выражение для H(х,y) через соответствующие вероятности
Аналогичным образом, используя формулу (7-4), получаем:
При этом следует учитывать, что
Оба выражения в правых частях (7-5) и (7-6) могут быть сведены к одной симметричной форме, если умножить дроби под знаком логарифма в формуле (7-5) на р(yk), в формуле (7-6) на р(xi) соответственно. В результате получим:
Аналогичным образом могут быть получены соотношения для непрерывных сигналов х и y:
В большинстве теоретических работ используется формула (7-8) и при этом специально не оговариваются непрерывные или дискретные сигналы.
В частности, в формуле (7-8) величину I(х,y) можно интерпретировать, как относительную информацию объекта х относительно объекта y (или объекта у относительно объекта х), равную разности априорной и апостериорной энтропий объекта y (или х). Причем оба объекта могут быть или дискретными, или непрерывными (в последнем случае используются дифференциальные энтропии с одинаковым уровнем квантования ε). Один из объектов х может быть дискретен, а другой у непрерывен. В этом случае формула (7-8) определяет количество информации, равное разности априорной и апостериорной энтропий дискретного объекта х или разности априорной и апостериорной дифференциальных энтропий непрерывного объекта y
Симметрия является важным свойством информации, которое заключается в том, что I(x, y) одинаковым образом зависит от х и y и количество информации об объекте х, содержащееся в объекте Y, равно количеству информации об объекте y, содержащемуся в объекте х. Отсюда можно сформулировать четвертое определение количества информации: среднее количество информации есть мера соответствия двух случайных объектов, численное значение которой определяется формулой (7-8).