НОВОСТИ   БИБЛИОТЕКА   ЮМОР   КАРТА САЙТА   ССЫЛКИ   О САЙТЕ  




предыдущая главасодержаниеследующая глава

2. Понятие информации в современной науке

Первоначальное понимание информации как передачи сведений сохранялось на протяжении более двух тысячелетий вплоть до середины XX в. К этому времени в связи с прогрессом технических средств массовых коммуникаций (телеграф, телефон, радио, телевидение и т. д.), в особенности с ростом объема передаваемых сведений, появилась необходимость их измерения. Еще в 20-х годах XIX в. делались попытки измерения информации и высказывались идеи, которые затем были использованы в вероятностно-статистической теории информации (Фишер, 1921 г., Найквист, 1924 г., Хартли, 1928 г., Сциллард, 1929 г.). Однако подлинная история теории информации начинается с 1948 г., когда была опубликована основополагающая статья К. Э. Шеннона "Математическая теория связи", где было дано вероятностно-статистическое определение понятия количества информации, предложена абстрактная схема связи, сформулированы теоремы о пропускной способности, помехоустойчивости, кодировании и т. д.

Эта первая - вероятностно-статистическая - теория информации в настоящее время является наиболее развитой среди других математических теорий информации. Математические теории информации выступают как совокупность количественных (и в первую очередь статистических) методов исследования передачи, хранения, восприятия, преобразования и использования информации. Все эти методы преследуют Цель измерения информации. Но если что-то измеряется, значит, в той или иной степени известно, что измеряется. Проблема количества информации неразрывно связана и с ее качественно-содержательным аспектом.

Обсуждение проблемы информации преследует цель выявить, прежде всего содержание понятия, к которому применяются количественные методы исследования. Начнем с теории Шеннона, ибо здесь впервые от нечеткого представления об информации как передаче сведений был совершен переход к точному понятию количества информации.

Понятие количества информации в статистической теории определяется на основе понятия вероятности, которое, как известно, применяется для описания ситуации с неопределенностью. При этом неопределенность может быть присуща как знаниям об объекте, так и самому этому объекту. Понятие неопределенности* связано с выбором (отбором) одного или нескольких элементов из некоторой конечной совокупности их. Так, если совокупность состоит из двух элементов (скажем, двух одноклеточных организмов в данном объеме пространства), то степень неопределенности пропорциональна количеству этих элементов (т. е. двум), а вероятность выбора элемента (микроорганизма) из их совокупности равна одной второй.

* (Подробнее о понятии неопределенности см. В. С. Готт, А. Д. Урсул. Определенность и неопределенность как категории научного познания. М, 1971.)

Если, скажем, в наших знаниях о каком-либо предмете существует неясность, неопределенность, а получив новые сведения об этом предмете, мы можем уже более определенно судить о нем, то это значит, что сообщение содержало в себе информацию. Если сообщение не дает ничего нового, не снимает неопределенности, то с позиций рассматриваемой теории предполагается, что в нем не содержится информации. Так, сообщение о том, что лошади едят овес, не несет информации; количество информации в нем считается равным нулю, ибо это сообщение отражает обыденные, повседневные явления (лошади обычно едят овес), вероятность осуществления которых равна или очень близка к единице. Сообщение об обнаружении двухголовой змеи уже содержит некоторое количество информации, ибо это необычное, неожиданное явление: вероятность существования двухголовой змеи очень мала. Если вероятность тех или иных сведений уменьшается, т. е. увеличивается степень неопределенности, то количество информации после приема этих сведений увеличивается.

Степень неопределенности сообщений измеряется величиной, которую в теории информации принято называть энтропией (H). Энтропия является функцией вероятности (р):

H = - log р.

При р = 1 энтропия равна нулю и при р = 0 энтропия равна бесконечности. Количество информации (J), называемое иногда негэнтропией, выступает как разность между начальной энтропией (до получения сообщения) и конечной энтропией (после получения сообщения). В том случае если неопределенность (измеряемая энтропией) полностью уничтожается в результате получения сообщения, количество информации равно энтропии, т. е. J = H. В статистической теории информации под информацией понимают сведения, сообщения, которые снимают существовавшую до их получения неопределенность.

Количество информации, получаемое от отдельного события, сообщения, называется индивидуальным количеством информации. Это понятие оказывается элементарным, и в теории информации используются более сложные формулы - среднее количество информации и ряд других, которые определяют количество информации уже в совокупности событий. Если эти события равновероятны, то количество информации в этом случае равно логарифму числа событий. Так, сообщение, переданное отцу, что у него родился мальчик, несет одну двоичную единицу информации. Вероятность рождения мальчика равна вероятности рождения девочки, а общее количество возможностей (рождения ребенка) равно двум. Двоичный логарифм от двух (log2 2) равен единице (двоичной единице информации) или биту. Один бит есть количество информации, получаемое при выборе из двух равновероятных возможностей. Вообще единицы информации зависят от выбора основания логарифма: если основание равно двум, то информация измеряется в битах, если основание равно десяти, то измерение ведется в десятичных единицах информации (или Хартли).

Представление об информации как снимаемой неопределенности является наиболее распространенной трактовкой понятия информации, однако еще не самой общей. Известно, что мы получаем сведения также о таких событиях, относительно которых никаких прямых гипотез не строили. Так было открыто явление радиоактивности, многие виды растений, животных и т. д.* Все эти сведения и знания являются информацией в старом, докибернетическом смысле слова: они не уменьшали ранее имевшейся неопределенности. Это просто отражение существовавших независимо от нашего сознания фактов, событий, прибавление нового знания к ранее имевшемуся.

* (О случайном и необходимом в научном открытии см. Н. В. Пилипенко. Соотношение необходимости и случайности в научном творчестве.- "Научное открытие и его восприятие". М., 1971.)

Практика свидетельствует о том, что чисто вероятностное понимание информации и ее количества, характерное для статистической теории информации, не отражает существа многих процессов. Например, при анализе процессов управления мы встречаемся с такими системами, когда поведение объекта управления не является случайным. Такая картина оказывается довольно обычной при управлении производственными процессами, где желательно строго последовательное, а не случайное выполнение технологических операций. Неслучайные информационные процессы характерны для некоторых систем связи, познания, переработки информации в ЭВМ и т. д. Короче говоря, реальные информационные процессы выступают как единство случайного и необходимого.

В силу упомянутых причин и возникли невероятностные, нестатистические подходы к измерению количества информации. Один из них носит название "динамического" подхода. В статистических совокупностях отношение между причиной и следствием носит многозначный характер: причина порождает данное следствие лишь с определенной вероятностью. Но существуют и такие системы, где это отношение носит однозначный характер: данная причина вызывает одно и только одно следствие. Причем подобная однозначная, динамическая связь между причиной и следствием имеет место не, только в сфере явлений, изучаемых классической механикой, но и в живой природе и в обществе, в сфере человеческой деятельности. Так, выполнение программы космического полета при нормальных условиях (не в аварийной ситуации) носит однозначно-детерминированный характер. Космонавты выполняют в необходимой последовательности одни наблюдения и измерения за другими, руководствуясь заранее составленной программой (которая, конечно, не исключает возможности ее изменения). Поэтому анализ подобных процессов требует выхода за рамки традиционного, вероятностного подхода, выработки понятия количества информации для описания "динамических" систем.

На необходимость двух подходов к построению теории информации указывал еще Дж. фон Нейман, один из создателей кибернетики, которую он трактовал как общую теорию автоматов. Исходя из соображений теории автоматов, Нейман отмечал, что в автоматах (т. е. кибернетических системах) передача информации может принимать форму не только строго однозначно-детерминированного процесса, но и вероятностного, статистического*. Поэтому для описания и измерения количества информации в этом последнем случае необходима статистическая теория информации, а для однозначно-детерминированных процессов передачи информации необходимы строгие, точные теории, к которым он относит, в частности, формальную логику**.

* (См. Дж. фон Нейман. Теория самовоспроизводящихся автоматов. М., 1971, стр. 77.)

**(См. Дж. фон Нейман. Теория самовоспроизводящихся автоматов. М., 1971, стр. 62.)

В настоящее время существуют и другие невероятностные, или "строгие", варианты теории информации, применяющие различные математические методы к измерению информации. Особенно широкое развитие получил комбинаторный подход к определению понятия количества информации. Важной чертой этого подхода является то, что он абстрагируется от типа причинных связей и в этом смысле отличается и от "динамического", и от статистического подходов. Комбинаторное количество информации одинаково хорошо описывает и статистические, и динамические системы, ибо основное внимание здесь обращается на количество элементов (и на их отношения) в конечной совокупности, а не на специфику причинно-следственной связи. Причем это конечное количество элементов может быть и количеством случайных событий, и количеством возможностей, и наличным количеством каких-то предметов и т. д.

Возник также вариант теории информации, основанный на использовании соображений топологии. Топология - это важный раздел математики, изучающий свойства пространства, которые сохраняются при взаимно-однозначных непрерывных преобразованиях (растяжении, деформации и т. п.). Одним из топологических объектов является граф, простейшее представление о котором дает, например, обычный треугольник, причем вершинами графа считаются вершины треугольника, а соединяющие их линии называются ребрами графа. Топологическое количество информации определяется в зависимости от различия вершин графов, скажем таких, как количество ребер, выходящих из них, ориентация этих ребер и т. п. Так, если имеется простейший граф, состоящий из двух вершин и соединяющего их ребра, то нет возможности топологически отличить его вершины друг от друга. Считается, что количество информации такого графа равно нулю. Однако если в этом же графе ориентировать ребро, то вершины его можно уже различать: одна из них будет начальной (ребро графа выходит из нее), вторая окажется конечной (ребро графа входит в нее). Информационное содержание такого ориентированного графа будет уже отлично от нуля; чем больше в графе отличающихся друг от друга вершин, тем большее количество информации он содержит.

В 1965 г. академик А. Н. Колмогоров ввел принципиально новое алгоритмическое определение понятия количества информации. Алгоритмом обычно называется некоторая система правил, предписаний, задающая вычислительный процесс, программу решения ТРИ или иной задачи. Идея, введенная А. Н. Колмогоровым, заключается в том, что количество информации определяется как минимальная длина программы (сложность), позволяющая однозначно преобразовать один объект (множество) в другой объект (множество). Так, если имеется один объект (последовательность букв а, а, а, а) и второй объект - эта же последовательность, то длина программы, которую необходимо выполнить, чтобы преобразовать первый объект во второй, оказывается равной нулю (ибо объекты одинаковы). Чем больше различаются два объекта между собой, тем более сложной (длинной) оказывается программа перехода от одного объекта к другому. Программа измеряет, таким образом, степень тождества (или степень различия) двух объектов, выражает эту степень количеством команд, инструкций, которые необходимо реализовать, выполнив в определенном порядке систему операций, переводящих один объект в другой.

Заметим попутно, что если ранее весь формальный аппарат статистической теории информации строился на базе теории вероятностей, то теперь, как показал А. Н. Колмогоров, стало возможным на базе алгоритмического определения понятия количества информации построить саму теорию вероятностей. Случайными событиями (последовательностями) в "информационном" построении теории вероятностей считаются такие, которые не содержат информации друг о друге. "Не случайными" последовательностями считаются "те последовательности, в которых наблюдается достаточно много закономерностей"*, т. е. общих свойств элементов последовательности. Например, упомянутая последовательность, все буквы которой одинаковы, не является случайной; можно сказать, что первая буква содержит всю информацию о всех других элементах последовательности.

* (А. К. Звонкий, Л. А. Левин. Сложность конечных объектов и обоснование понятий информации и случайности с помощью теории алгоритмов.- "Успехи математических наук", 1970, Т. XXV, вып. 6, стр. 111.)

Таковы некоторые наиболее важные аспекты и варианты определения понятия количества информации, разработка которых привела к обогащению первоначального содержания понятия информации как сведений, сообщений.

Понимание информации как сведений или как снятой неопределенности не является самым общим ее определением - это его частные формы,- и каждое из них применимо в своей узкой области. Но многоаспектность, неисчерпаемость того или иного понятия, наличие в науке его особых форм не должны служить помехой для формулирования общего определения. Например, несмотря на неисчерпаемость видов и свойств материи, как показал В. И. Ленин, возможно дать единое философское определение понятия материи: "Материя есть философская категория для обозначения объективной реальности, которая дана человеку в ощущениях его, которая копируется, фотографируется, отображается нашими ощущениями, существуя независимо от них"*.

* (В. И. Ленин. Поли. собр. соч., т. 18, стр. 131.)

Можно полагать, что должно также существовать достаточно общее определение понятия информации, которое учитывало бы неисчерпаемость ее видов и свойств. Разумеется, такое определение не может быть только формальным обобщением тех особых форм понятий информации, которые существуют в настоящее время. Ясно, что теория информации будет и далее развиваться, появятся новые концепции информации. Поэтому искомое определение понятия должно быть достаточно широким для того, чтобы могло применяться, "работать" в достаточно обширной области.

Для получения такого определения следует не только обобщить современные знания об информации, но и выявить исторические и логические тенденции развития этого понятия. Понятия, как отмечал Ф. Энгельс, необходимо рассматривать "в их историческом, соответственно логическом, процессе образования"*.

* (К. Маркс и Ф. Энгельс. Соч., т. 25, ч. I, стр. 16.)

Применительно к нашему примеру это означает, что определение понятия информации должно выступать как результат развития знаний об информации и выделять ее наиболее общие и существенные признаки. Одним из таких общих признаков, характеризующих информацию вообще, является различие, разнообразие. Если в статистической теории понятие информации определяется как уничтоженная неопределенность (т. е. определенность), то в самом общем случае можно сказать, что информация в определенном аспекте (об этом речь далее) есть уничтожение тождества, однообразия (т. е. различие, разнообразие). Переход от трактовки информации как противоположности неопределенности к трактовке ее как противоположности тождеству диктуется всем ходом развития наших знаний. Об этом свидетельствует, например, развитие кибернетики (где информация выступает как синоним разнообразия, которое получает и использует кибернетическая система), а также психологии, биологии, химии, экономики и многих других наук.

Согласно данной концепции, информация существует там, где имеется разнообразие, различие. Если два объекта (или их свойства, связи, отношения и т. п.) различаются, то их совокупность содержит два элемента с разнообразием. Простейшей единицей измерения информации является элементарное различие, т. е. различие двух объектов. Уже говорилось, что понятие бита как двоичной единицы информации возникло на базе определения статистического количества информации. Бит - это единица информации, которую получает приемник информации, осуществляя выбор одной из двух равновероятных возможностей. И лишь в дальнейшем оказалось возможным придать этой единице информации более широкий смысл как единице разнообразия.

Например, когда в ящике имеются два разноцветных шара, то их совокупность обладает разнообразием с количеством информации в один бит (единица информации). Если же шары не различаются по цвету, то говорят, что в этом отношении совокупность не содержит информации. Чем больше в совокупности отличных друг от друга элементов, тем больше эта совокупность содержит информации. Последняя появляется, когда два объекта различаются, и исчезает, если эти объекты тождественны. Очевидно, что такое понимание информации, основанное на различии, разнообразии, является весьма широким, оно может характеризовать как вероятностные процессы передачи сообщений, так и невероятностные.

Впервые наиболее полно концепция разнообразия была изложена одним из основоположников кибернетики - английским нейрофизиологом У. Р. Эшби в 1956 г. в книге "Введение в кибернетику". Он показал, что информация не может передаваться в большем количестве, чем позволяет количество разнообразия. Любое множество вероятностей, в сумме составляющих единицу, может рассматриваться как соответствующее (эквивалентное) некоторому множеству, элементы которого обнаруживают разнообразие. Под разнообразием понимаются элементы множества (точнее говоря, подмножеств), отличающиеся, несовпадающие между собой; это может быть совокупность различных элементов, связей, отношений, свойств объектов.

Предположим, мы рассматриваем множество огней светофора - красный, желтый и зеленый. В нем три элемента, которые отличаются друг от друга; о таком множестве можно сказать, что оно имеет разнообразие в три элемента. Если в ящике шесть шаров черного и белого цветов, то это множество содержит разнообразие в два элемента (в отношении цвета шаров). Если из множества происходит выбор элементов, то существует определенная вероятность выбора того или иного элемента. Например, вероятность выбора одного элемента из множества, состоящего всего из двух различных элементов, равна 0,5. Короче говоря, зная общее количество элементов в множестве и количество различных элементов, всегда можно определить вероятность выбора того или иного элемента. Отсюда появляется возможность истолковать теорию информации, которая построена на базе понятия вероятности, теперь уже на основе понятия разнообразия.

Итак, информация существует там, где существует различие. Но информация это не различие, хотя различие, разнообразие составляют объективную основу информации. Для выработки общего понятия информации это обстоятельство необходимо особо подчеркнуть. Отличие понятия информации и понятия разнообразия и в то же время учет связи между ними, о которой шла речь выше, является необходимым условием для формулирования общего понятия информации с позиций ленинской теории отражения.

Но в этом параграфе не будет рассматриваться отличие понятия информации от понятия разнообразия - это задача последующего изложения. Здесь же мы продолжим рассмотрение некоторых философских аспектов выявленного признака содержания понятия информации. До сих пор мы обсуждали логику развития теории информации, не обращаясь к ее приложениям. В связи с этим и не высказывалось суждений относительно предметной области, на которую распространяется понятие информации.

Дело в том, что на основе анализа лишь математической теории информации нельзя еще сделать вывода относительно того, каким предметам в объективной реальности (или в духовном мире) присуща информация. Ведь математические понятия не имеют строго определенной предметной области, они одинаково могут быть применены для описания объектов и бытия и мышления. Поэтому на основе анализа лишь математических теорий информации с одинаковой вероятностью можно утверждать, что эти теории описывают лишь человеческие сведения и сообщения, что понятие информации отображает лишь кибернетические процессы связи и управления и что, наконец, информация является свойством любых материальных систем. Для математических теорий все эти трактовки информации будут одинаково вероятными. Поэтому необходимо от теории перейти к практике приложений понятия информации и связанных с ним математических методов.

Не имеет смысла доказывать, что информация существует в социальной сфере. Первоначальные представления об информации связаны с общением людей, и для измерения человеческой информации впервые была и предназначена статистическая теория информации*. Развитие кибернетики показало, что понятие информации не связано лишь с человеческим обществом (в III главе будут высказаны некоторые дополнительные соображения о характеристике социальной информации). Вывод о том, что информация присуща живым существам и техническим устройствам, особенно был подчеркнут и развит кибернетикой, комплексной наукой, в которую теория информации в определенном аспекте входит как составная часть. Именно благодаря использованию идей теории информации в кибернетике понятие информации перестало характеризовать только человеческое общение и по существу превратилось в кибернетическое понятие. Причем саму кибернетику, иногда даже определяют как науку о способах восприятия, хранения, передачи и использования информации в машинах, живых организмах и в обществе.

* (Подробнее об этом см. К. Черри. Человек и информация (Критика и обзор). М., 1972.)

Кибернетика прежде всего связана с проблемой управления. Связь, передача информации, которая в теории информации (ее довольно часто называют теорией передачи информации) рассматривается как главная задача, в кибернетике подчинена задаче управления. Кибернетику больше всего интересует именно преобразование, переработка информации, предназначенной для выполнения определенной цели, связанной с управлением. Управление невозможно без восприятия, передачи, а самое главное - без переработки, преобразования информации. Использование этого понятия в кибернетике привело к обогащению содержания понятия информации, к выявлению ее связи с управлением.

Однако концепция информации (как и применение количественных методов ее измерения) оказывается "работоспособной" и вне кибернетики, в частности в науках, которые изучают естественные объекты неживой природы (физика, химия, геология и.т. п.). Использование теоретико-информационных методов в науках о неживой природе идет в двух аспектах. Во-первых, понятие информации здесь рассматривается, в частности, как научная информация, т. е. как воспроизведение в системе наук разнообразия объектов природы. Во-вторых, средства теории информации используются для отражения определенных свойств объектов, связанных только со структурой, организацией, упорядоченностью материальных систем. Например, физики применяют теорию информации для изучения закономерностей поведения газа, микрочастиц, кристаллизации жидкостей, проблемы времени и т. д. Причем теоретико-информационные методы (не подменяющие и несводимые к термодинамическим методам) настолько широко проникли в физику, что сейчас появились попытки построения термодинамики, статистической физики, квантовой механики в информационном аспекте.

Физики полагают, что объекты неживой природы в своей структуре содержат информацию, которую они называют связанной, или структурной. Предпринимаются попытки измерения сложности организации, структуры неживых объектов с помощью средств теории информации. При этом считается, что информация как свойство неживых объектов существует независимо от познающего субъекта. Применение теории информации в науках о неживой природе привело к дальнейшему расширению объема и к углублению, обогащению содержания понятия информации. Кроме того, важно отметить, что через теоретико-информационные методы, обладающие большой степенью общности, в науки о неживой природе еще больше проникают идеи развития, отражения, организации.

Если ранее кибернетика и статистическая теория информации расширили понятие информации, отвергнув распространенное ее понимание лишь как духовного феномена, то применение теории информации в науках о неживой природе поставило вопрос о преодолении представления об информации как свойстве только кибернетических систем. В результате информация оказалась свойством не только общественных, живых и технических систем, но и вообще всех материальных систем (хотя в каждой из упомянутых областей информация имеет свою специфику). Эту позицию защищают видные советские ученые-кибернетики, в частности А. И. Берг, В. М. Глушков, Б. Н. Петров, В. И. Сифоров и др. С этой точки зрения информация, как таковая, не возникает впервые на уровне жизни, а существует и существовала всегда. Однако по мере развития материи изменялась и информация как одно из свойств материальных объектов.

Можно высказать предположение, что в природе существуют два различных вида информации: 1) существующая вне управления и 2) неразрывно связанная с ним. Информация в неживой природе не используется ее системами (хотя и связана с отражением). Использование информации - это уже управление, но именно управление отсутствует в естественных неживых объектах. По-видимому, информации в неживой природе присущи лишь хранение и передача.

Следует отметить, что мы изложили лишь одну из точек зрения относительно возможности существования информации в неживой природе. Далее будет сделана попытка ее подробного обоснования, здесь же мы обращаем внимание на то, что существует и иная концепция, отрицающая существование информации в неживой природе.

Согласно этой точке зрения, которую мы не разделяем, информация впервые появляется на уровне живого. Как же в этом случае объясняется использование теоретико-информационных методов в науках, изучающих неживые, неорганические объекты природы? Сторонники этой точки зрения предполагают, что их концепция подтверждается данными кибернетики, которая будто бы показывает неразрывную связь информации и управления. В следующей главе мы еще вернемся к вопросу о том, какую же точку зрения приемлет современная кибернетика. Нашу позицию в отношении предметной области понятия информации мы изложили выше и далее постараемся привести аргументы в пользу этой точки зрения.

Мы будем исходить из концепции информации как свойства всех материальных объектов, из того, что информация существовала и существует вечно и никогда не возникала. Однако такой взгляд не исключает того, что с развитием материи могут появляться новые свойства информации, например такие, как смысл и ценность. Как уже упоминалось, наиболее соответствует современной науке признание существования двух принципиально различных видов информации: "некибернетической" и "кибернетической" (связанной с управлением). Высшие виды информации (биологическая, социальная) появились в результате эволюции материи, на определенном этапе развития которой появляется управление как использование информации.

Современные математические подходы к измерению информации, из которых наиболее развитыми и используемыми являются статистический и комбинаторный, с семиотической точки зрения описывают лишь знаковую структуру сообщений (последовательностей букв, множества элементов) и поэтому могут быть охарактеризованы как синтаксические теории. Содержательные и ценностные аспекты информации исследуются соответственно в семантических и прагматических теориях информации.

Ясно, что информация, которую передают люди в процессе общения, обладает не только количественными характеристиками, но и содержанием, или значением. Причем для человека важно прежде всего значение информации, понимание того, что передается в сообщении. В следующем параграфе главы мы подробно остановимся на характеристике понятия значения. Здесь же уместно отметить, что исследователи семантической теории информации пытаются количественно оценить содержательность информации, несомой знаками человеческой речи, измерить смысл суждений, понятий, умозаключений. Однако это лишь самые первые шаги, и они в основном касаются измерения содержания довольно простых искусственных языков. Поэтому существующими методами семантической теории информации сейчас невозможно измерять содержание естественного языка людей.

Кроме того, на работы в области семантической теории информации существенное влияние оказала вероятностно-статистическая теория информации Шеннона. Как следствие этого большинство таких теорий сосредоточивает свое внимание на вероятностных языково-логических формах (гипотезах, вопросах, предположениях). Наконец, трудности развития семантической теории информации усугубляются тем, что до сих пор не совсем ясно, что такое значение знака, поэтому и различные семантические концепции информации исходят из неодинаковых представлений о том, что, собственно, необходимо здесь измерять. И все же, несмотря на большой спектр мнений, разнообразие подходов и используемых логико-математических средств и семиотических концепций, начинает вырисовываться фундамент будущего здания семантической теории информации.

Изучение человеческой информации показало, что кроме количества и значения информация обладает ценностью (или полезностью). Ценность информации является ее прагматическим свойством, влияющим на поведение, на принятие решений тем или иным высокоорганизованным приемником информации. Короче говоря, ценность информации влияет на управление (так что можно говорить о неразрывной связи ценности информации и управления). Изучение роли информации в процессах управления (особенно в социальных процессах) показало, что здесь в первую очередь важны качественные характеристики информации, в частности ее ценность. Для управления важно не разнообразие вообще, а именно то разнообразие, которое полезно для системы управления. Поэтому из сего существующего разнообразия сигналов кибернетическая система отбирает именно ценное, полезное разнообразие, которое ведет к осуществлению цели, поставленной в процессе управления. В современной кибернетике понятие цели трактуется широко, не ограничивается сферой человеческой деятельности (но и не характеризует объекты неживой естественной природы). В процессе управления всегда имеется какая-либо цель - это может быть сохранение системы в заданном состоянии, ее саморазвитие и т. д. Ценность информации обнаруживается именно тогда, когда она включена в отношение: получатель информации - информация - цель управления.

В настоящее время существует несколько подходов к измерению ценности информации. Одним из первых на возможность измерения ценности информации обратил внимание А. А. Харкевич. Величина ценности информации, по А. А. Харкевичу, выражается через приращение вероятности достижения цели до и после получения информации. Здесь ценность информации измеряется посредством ее количества. И это не случайно. Дело в том, что в статистической теории информации, как уже отмечалось, лишь такое сообщение несет информацию, которое уменьшает, снимает существующую неопределенность.

Кроме подхода А. А. Харкевича можно отметить варианты теории ценности информации, связанные с теорией игр и решений, с теорией оптимального управления и др. Не останавливаясь на описании этих подходов, укажем на их общие черты: ценность информации измеряется через ее количество (хотя эта зависимость может иметь различные формы, может вводиться отрицательная мера ценности и т. д.), и обязательно связывается с понятием цели. В общем случае при одном и том же количестве информации мера ее ценности оказывается зависимой от субъекта (воспринимающей информацию системы управления) и от целей управления.

Рассмотренные здесь свойства не исчерпывают всех характеристик информации ни в количественном, ни в качественном аспектах. Однако многообразные свойства информации (прежде всего человеческой) еще только начинают выявляться и здесь еще не выдвинуто каких-либо фундаментальных концепций.

Итак, мы попытались кратко рассмотреть основные методологические аспекты понятия информации в современной науке. Интенсивная разработка математического аппарата информационных процессов, широкое приложение теоретико-информационных методов, создание информационно-кибернетической техники являются характерными чертами, особенностями современной научно-технической революции. Исследование этих особенностей развития современного знания не может быть предметом только специальных наук; в решении фундаментальных вопросов проблемы информации существенная роль принадлежит марксистско-ленинской философии, научный аппарат которой позволяет раскрыть природу информации, дать методологический анализ важнейших понятий и принципов теории информации.

В исследовании философско-методологических вопросов теории информации заинтересованы не только философы, но и представители всех тех наук, в которых используются или в принципе могут применяться теоретико-информационные методы. Можно вычленить следующие аспекты философских проблем теории информации: методологический анализ предмета и методов теории информации и ее приложений в различных науках; раскрытие философского содержания понятия информации на основе обобщения Данных естественных и других наук, исторического и логико-гносеологического анализа этого понятия; установление места понятия информации в системе фундаментальных понятий научного знания, особенно в системе категорий кибернетики, а также отношения понятия информации к категориям материалистической диалектики; применение общего понятия информации и связанных с ним теоретико-информационных методов для уточнения некоторых понятий материалистической диалектики, прежде всего категории отражения; изучение социологических аспектов теории информации, ее приложений и информационно-кибернетической техники; критика идеалистических и метафизических интерпретаций понятия информации и связанных с ним методов познания и др.

Отметим, что в настоящее время интенсивно разрабатываются все перечисленные выше философские аспекты понятия информации, даны определения (общее и особенные) понятий информации (которые, конечно, не являются окончательными), показана связь понятия информации с рядом категорий материалистической диалектики, проведен методологический анализ приложений теории информации в различных науках. Однако по-прежнему идут дискуссии по целому ряду проблем, связанных с определением понятия информации: о предметной области, отражаемой понятием, о классификации информационных процессов и т. д. Важно, чтобы в результате дискуссий не только повышалась степень аргументации той или иной точки зрения относительно уже известных положений, но и рождалось новое знание.

В настоящем параграфе не ставилась задача подробного философского анализа понятия информации*, а лишь акцентировалось внимание на тех моментах, которые необходимы для освещения главной темы книги - раскрытия соотношения понятий отражения и информации.

* (Попытка целостного анализа философских вопросов теории информации была предпринята нами в книге "Информация. Методологические аспекты".)

предыдущая главасодержаниеследующая глава








© Злыгостев А.С., 2001-2019
При использовании материалов сайта активная ссылка обязательна:
http://informaticslib.ru/ 'Библиотека по информатике'
Рейтинг@Mail.ru
Поможем с курсовой, контрольной, дипломной
1500+ квалифицированных специалистов готовы вам помочь