НОВОСТИ   БИБЛИОТЕКА   ЮМОР   КАРТА САЙТА   ССЫЛКИ   О САЙТЕ  




предыдущая главасодержаниеследующая глава

Количество информации в организме

Одна из самых значительных и, возможно, первая попытка измерить количество информации в живом организме принадлежит Данкоффу и Кастлеру [1]. Сущность их метода состоит в том, чтобы выбрать какие-то "кирпичи", из которых можно построить объект, идентичный тому, информацию в котором они хотят измерить, и написать список инструкций, достаточный для его построения из этих "кирпичей". Тогда количество двоичных разрядов, достаточное для наиболее экономного кодирования этого списка инструкций, и будет мерой количества информации и в том, и в другом объектах. Если исходным объектом является организм, то полученное число и будет количеством информации, содержащимся в этом организме.

Все вычисления можно свести к одному шагу, если при составлении списка инструкций использовать алфавит, в котором каждая буква кодирует определенный тип кирпича, входящего в состав организма или его ориентацию в пространстве. Тогда кодирующая последовательность будет представлять собой список составляющих кирпичей с указанием их ориентации. Количество информации в этой последовательности определяется, следовательно, вероятностью отдельных букв и общей ее длиной. Количество информации, приходящееся в среднем на одно место в этой последовательности, можно вычислить по формуле для энтропии, данной в приложении 2, а общее количество информации равно произведению этого среднего на длину последовательности.

Данкофф и Кастлер получают несколько оценок количества информации в организме, используя в качестве кирпичей в одном случае атомы, в другом молекулы.

В отношении молекул, например, они указывают, что существует не более пятисот различных структурно важных молекул, встречающихся в организме со сколько-нибудь значительной частотой. Применяя формулу для энтропии, они получают, что в среднем на одну молекулу приходится четыре бита информации. Далее они предполагают, что каждая молекула может иметь около двенадцати различных способов ориентации, что составляет еще три бита информации. Затем они подсчитывают общее число молекул в организме, предполагая, что он содержит 7*1027 атомов и что каждая молекула состоит из 100 атомов. Далее они предполагают, что девять десятых организма не имеют структуры, как вода, и не несут информации. В конце концов они приходят к заключению, что общее количество информации в организме, например, взрослого человека составляет примерно 5*1025 битов. Если за кирпичи принять атомы, аналогичные вычисления приводят к оценке в 2*1028 битов.

Аналогичный подсчет для зиготы дает 1011 битов. Но эта разница в числах объясняется просто разницей в размерах яйца и взрослого организма: они полагают, что число молекул в яйце, имеющих значение для развития, равно 1010. То есть яйцо содержит меньше информации, чем организм.

Очевидный недостаток такого подхода состоит в том, что оценка количества информации очень произвольна.

Например, общий метод, выбранный для измерения информации, при котором организм уподобляется кирпичной стене, сам по себе в какой-то мере произволен. Возможно, было бы предпочтительнее использовать метод, более тесно связанный с самим процессом развития организма, и спрашивать, в какой информации нуждается сам организм и каково ее количество.

Во всяком случае, при этом методе оценки количества информации для удобства подсчета игнорируется то обстоятельство, что если мы хотим построить объект, идентичный данному, то мы должны знать не только то, какой сорт кирпича положить на каждое место, но еще и то, где находятся сами эти места. Даже в простейшем случае, когда надо составить список инструкций, чтобы построить ровную кирпичную стену, список кирпичей имеет смысл лишь тогда, когда указано, какой куда положить. Чтобы набор инструкций был полным, надо по меньшей мере указать, где кончается каждый ряд. Очевидно, это требование становится еще важнее в более сложном случае живого организма, имеющего определенную форму, поскольку вся соль метода в том, что список инструкций является исчерпывающим и помимо него ничего неизвестно.

Более того, кроме этих методологических ограничений, имеются и дополнительные элементы произвола. Например, как было отмечено в предыдущем разделе, выбор того, что принять за кирпичи, неизбежно носит произвольный характер. Отчего бы не принять за кирпичи не атомы или молекулы, а атомные ядра и электроны, с одной стороны, или целые органы - с другой? В каждом из этих случаев оценка количества информации будет иной, точно так же, как если бы мы оценивали количество информации в доме, приняв за единичные элементы сотню различных типовых блоков в одном случае и десяток различны* видов кирпичей в другом. Сами же приведенные подсчеты подтверждают это, поскольку между случаем атомов и случаем молекул они дают расхождение в четыреста раз. Попытка авторов не придавать этому значения на том основании, что оба числа чрезвычайно велики, обесценивает сам факт выполнения вычислений. Возможно, атомы и молекулы могут показаться подходящими в качестве кирпичей, если уж надо сделать выбор; но необходимо подчеркнуть, что полученные оценки нисколько не являются абсолютными, как это, возможно, подразумевается.

Следующее произвольное предположение, которое они делают,- это что информацию "бесструктурных" частей организма можно благополучно не принимать во внимание. Но какие части организма бесструктурны? Это поднимает еще вопрос о том, надо ли описывать атомы или молекулы в тех частях организма, где действительное расположение реальных атомов и молекул кажется случайным.

Данкофф и Кастлер сами вынуждены признать, что то, что они предлагают, есть "грубые приближения и смутные гипотезы" [4]. Они говорят также, что их оценки "чрезвычайно примитивны", но "лучше, чем никакие" [5]. Однако мы полагаем, напротив, что, возможно, такие оценки не лучше, чем отсутствие оценок вообще, поскольку такие оценки могут ввести в заблуждение.

Все критические замечания, адресованные работе Данкоффа и Кастлера, относятся также и к попытке Равена [2] оценить по отдельности запас информации в ядре, цитоплазме и оболочке яйца. Например, он подсчитывает запас информации в ядрах яиц млекопитающих следующим образом: если в таком ядре имеется 3*109 оснований ДНК, то, учитывая, что существуют четыре различных вида оснований, каждое основание несет два бита информации и общее количество информации составляет 6*109 битов. Следует подчеркнуть, что этот подсчет количества информации в ДНК почти так же произволен, как расчеты Данкоффа и Кастлера, и полученный результат лишь означает, что при алфавите, состоящем из четырех букв, и при данной длине сообщения (в данном случае 3*109 букв) максимальное количество информации, которое можно закодировать, равно как раз 6*109 битов. В работе Данкоффа и Кастлера предпринят следующий шаг, состоящий в попытке оценить действительное количество информации, приняв во внимание вероятности появления различных "букв" (и Равен делает это в других вычислениях).

Можно также упомянуть о несколько ином способе оценки количества информации в организме, основанном на высказывании Эшби о том, что акт "... "делания" машины есть по существу акт передачи сообщения от делающего к делаемому [6] и состоит в сведении множества машин, которые могли бы быть сделаны (т. е. "сообщений"), к той единственной, которая сделана. Однако это трудно принимать всерьез как метод измерения, поскольку при этом нужно знать, сколько всего машин могло быть построено, и, конечно, любая оценка тут будет весьма произвольной".

Общий вывод должен быть таков: всякое утверждение о количестве информации в организме имеет смысл лишь тогда, когда указан список предположений, на которых оно основано, и в случае метода Данкоффа и Кастлера предположений, по-видимому, больше, чем допустимо для того, чтобы метод мог быть полезен. Это не имело бы значения, если бы у многих биологов не создалось впечатление, что в этих оценках количества информации есть что-то абсолютное.

(Моделям, которые будут описаны в следующих главах этой книги, такая опасность не грозит, так как эти модели не являются самоцелью, как измерения Данкоффа и Кастлера, а должны помочь добиться понимания вопроса - а это не совсем одно и то же. Во всяком случае, предположения, на которых они основаны, как мы видели, выбраны как можно более очевидными, и всегда можно добавить новые ограничения, чтобы приблизить их к действительности.)

предыдущая главасодержаниеследующая глава








© Злыгостев А.С., 2001-2019
При использовании материалов сайта активная ссылка обязательна:
http://informaticslib.ru/ 'Библиотека по информатике'
Рейтинг@Mail.ru