НОВОСТИ   БИБЛИОТЕКА   ЮМОР   КАРТА САЙТА   ССЫЛКИ   О САЙТЕ  




предыдущая главасодержаниеследующая глава

Глава шестая. Количество информации и энтропия сообщений

В классической теории информации известно по крайней мере два определения количества информации. Оба определения очень близки между собой, принципиальное различие между ними появляется лишь при попытке ввести смысловое содержание информации. Первое определение (по Хартли) использует комбинаторный подход, второе (по Шеннону) распространяет на передачу и переработку информации вероятностную точку зрения. Чем больше неопределенности в принятом сообщении, тем больше информации в нем содержится. Поэтому количество информации определяют следующим образом:


Если шумы отсутствуют, то можно считать, что вероятность данного события после поступления на вход приемника сообщения о нем равна единице, т. е.


За основание логарифма принимают чаще всего цифру 2, но иногда используются также десятичный и натуральный логарифмы [Л. 47, 48, 50-54].

Для измерения количества информации введена специальная единица измерения, которая называется бит (bit) информации. Количество информации Iв битах равно правой части приведенных выше равенств. Так, при наличии двух равновероятных событий в отсутствие шумов

предыдущая главасодержаниеследующая глава








© Злыгостев А.С., 2001-2019
При использовании материалов сайта активная ссылка обязательна:
http://informaticslib.ru/ 'Библиотека по информатике'
Рейтинг@Mail.ru
Поможем с курсовой, контрольной, дипломной
1500+ квалифицированных специалистов готовы вам помочь