НОВОСТИ   БИБЛИОТЕКА   ЮМОР   КАРТА САЙТА   ССЫЛКИ   О САЙТЕ  




предыдущая главасодержаниеследующая глава

д) Энтропийная мощность непрерывных сообщений

Покажем, что дифференциальная энтропия белого нормального шума при ε=1 на один отсчет определяется по формуле


где ε - основание натуральных логарифмов; σ2 - дисперсия белого шума; S12 - средняя мощность белого шума на единичную полосу. Считается, что для белого шума σ2=S1fc.

Один отсчет понимается таким образом, что непрерывный по времени сигнал заменяется дискретным по времени сигналом с интервалом дискретности, определяемым в соответствии с теоремой Котельникова:


где fc - ширина спектра непрерывного сигнала (амплитудами составляющих сигнала, имеющими частоты выше этой частоты, можно пренебречь), т. е. заменяем непрерывный сигнал с шириной полосы fc на интервале t0 дискретными значениями, число которых подсчитывается по формуле Котельникова:


Докажем формулу (6-21). Для нормального сигнала х плотность распределения вероятности определяется по формуле


Отсюда, логарифмируя, получаем:


По определению энтропии непрерывных сообщений (а точнее, дифференциальной энтропии при ε=1) имеем:


Тем самым формула (6-21) доказана. В соотношениях (6-25) использована формула (6-24) и следующая формула, определяющая дисперсию:


По теореме Котельникова [формула (6-23)] среднее число отсчетов или степеней свободы сигнала с шириной спектра составляет 2fc в 1 сек. Поэтому энтропия рассматриваемого сигнала на единицу времени равна:

H1=fc log 2πeS1. (6-26)

Энтропийная мощность S-1 произвольного случайного сигнала, имеющего ширину спектра fc и энтропию Н1 определяется как средняя мощность белого нормального шума с такой же полосой пропускания и с такой же энтропией на степень свободы, т. е.

S-1=(1/2πe)*e2H1

Здесь просто перевернуто выражение (6-21), т. е. хотя процесс не имеет нормального распределения, заменяем его эквивалентным сигналом (с нормальным законом) и считаем, что справедливо соотношение (6-21).

Рассмотрим некоторые свойства энтропийной мощности. Энтропийная мощность S-1 случайного сигнала с произвольным законом распределения не превышает его действительной средней мощности S1 т. е. S-1≤S1, так как при заданной средней мощности (дисперсии) нормальный процесс обладает максимальной энтропией, если этот процесс х изменяется от - ∞ до +∞. Пусть n1 - сигнал с нормальным законом распределения, а n - сигнал с произвольным законом распределения при

Hn1=Hn. (6-28)

Требуется доказать, что если


то

Sn1=S-n12n1=S-n≤σ2n

Это соотношение следует из того, что нормальный процесс обладает максимальной энтропией.

Это положение позволяет брать в качестве верхней границы энтропийной мощности действительную мощность сигнала, когда неизвестно распределение этого сигнала.

Докажем очень важную формулу для энтропийной мощности не белого нормального шума через его спектральную плотность мощности S(f):


Для доказательства будем считать функцию S(f) дифференцируемой, за исключением конечного числа точек. Разобьем весь интервал частот (0, f) на узкие полоски df, в пределах которых можно считать спектральную плотность постоянной величиной. Будем считать, что исходный процесс состоит из суммы сигналов белых шумов, имеющих в интервале (fсf+df) значение средней мощности S(f), Величина энтропии на единицу времени для такого процесса равна:

dflog[2πeS(f)].

Будем считать, что все эти сигналы независимы друг от друга. Это положение, конечно, требует своего обоснования. Тогда энтропия сигнала равна сумме энтропии:


Учитывая, что среднее число степеней свободы процесса с шириной полосы fc равно 1/2fс, получаем, что энтропия сигнала на одну степень свободы равна:


Очевидно, что энтропийная мощность в соответствии с формулами (6-32) и (6-27) может быть записана в виде (6-30). Действительно,


что и требовалось доказать.

предыдущая главасодержаниеследующая глава








© Злыгостев А.С., 2001-2019
При использовании материалов сайта активная ссылка обязательна:
http://informaticslib.ru/ 'Библиотека по информатике'
Рейтинг@Mail.ru
Поможем с курсовой, контрольной, дипломной
1500+ квалифицированных специалистов готовы вам помочь