Парадоксы эволюции. Как наличие ресурсов и отсутствие внешних угроз приводит к самоуничтожению вида и что мы можем с этим сделать - Алексей Аркадьевич Макарушин
Шрифт:
Интервал:
Закладка:
Глава V. Цель – все и ничто
Только хорошо поняв второе начало термодинамики, можно ответить на вопрос, почему вообще возможна жизнь.
Энтропия к месту и не очень
Разумеется, в эволюционном движении живого, как разновидности движения материи и энергии, нет никакого предопределенного смысла, а тем более замысла – ни скрытого, ни тем более явного, несмотря на то что они «ясно видны» многим «посвященным». Если где-то в данной книге и используются выражения вроде «эволюция сделала вот это, чтобы решить вот то», на самом деле это всего лишь «обытовленное» объяснение динамики генетических ансамблей, к которым «принципы статистической физики применимы столь же, сколь и к ансамблям молекул» (Кунин Е. В., 2012).
Все формы взаимодействия в биологических и протобиологических средах (сложных органических молекул) можно в своих крайних пределах свести к двум формам: отношениям протагонистов или дружественности (сотрудничество, синтрофия, симбиоз, кооперация и т. д.) и отношениям антагонистов или враждебности (прямое соперничество, конкуренция, с одной стороны, и хищничество, паразитизм, зачастую вырастающий из сотрудничества, с другой). Граница между ними тонкая, если не зыбкая; нейтральных же взаимодействий, пожалуй, нет совсем. Соответственно, ответ на вопрос, на каких этапах развития материи и в какой последовательности эти явления возникают, и каким образом они вытекают из оснований статистической физики, может стать и предвестником ответа на вопрос о сущности болезней, воспринимаемых часто как потери совершенства изначально почти безупречных организмов или как прямые следствия их некоего изначального несовершенства. Представляется, однако, что именно несовершенства, как отклонения от совершенного низкоэнтропийного «идеала», реальные или кажущиеся, и делают живой (и не только живой) мир таким, каков он есть: развивающимся от простого к все более сложному, постоянно генерирующим что-то новое, неизбежно забывающим и неизбывно повторяющим (почти) все старое, в котором все в отдельности неизбежно скоро заканчивается и когда-то закончится и все целиком.
В третьей главе на отдельных примерах были кратко рассмотрены квантовые и энтропийные основания базовых энергетических предпосылок жизни и сопутствующая им диссипативность, то есть «набор свойств открытой, неравновесной, рассеивающей энергию системы, движимой градиентом энергии, что увеличивает энтропию окружающей среды». Несомненно, что физические, в первую очередь термодинамические основания, второе начало термодинамики являются наиболее всеобъемлющим оправданием существования всего живого с его общим движением к нарастанию энтропии, но с неизбежным возникновением локальных и преходящих ее снижений (флуктуаций), то есть упорядочиваний хаоса. Рассмотрение энтропии как чистой «меры беспорядка» может запутать: очевидно, что энтропия «покоящейся» системы – ровного песка в пустыне, сбалансированной группы клеток, стагнирующего человеческого общества – гораздо выше, соответственно, энтропии осыпающегося бархана, смеси клеток хозяев и клеток новых паразитов, общества в состоянии революции и гражданской войны, ввиду того, что совокупность или возможность «выбора» доступных состояний для каждой единицы или вариантов совокупностей микросостояний в «спокойной» системе гораздо больше возможностей выбора в состоянии «революции».
Так, лидер партии «Яблоко» Григорий Явлинский в своей статье «Политическая энтропия. Цифровые технологии и глобализация беспорядка» (2020) предполагает, что на смену эпохи глобализации, предположительно, более упорядоченной, приходит «век беспорядка», где «существует множество труднопредсказуемых событий и развилок, и куда, как говорится, кривая выведет, не знает никто». И этот переход с ростом беспорядка предполагается рассматривать как рост «политической энтропии». Однако более правильным будет скорее обратное – падение энтропии: несмотря на возникновение потоков событий с непредсказуемой динамикой, для отдельных людей – совокупности элементов системы – количество вариантов выбора («свободы») на самом деле уменьшается, о чем совершенно справедливо указывает и сам Г. Явлинский в заключение своей статьи, связывая это в первую очередь с добровольным отказом людей от свободы выбора, нежели направленной деятельностью авторитарных лидеров. Отдельный большой вопрос, разумеется, насколько этот выбор на самом деле доброволен, но несомненно, что само уменьшение свободы выбора для подавляющего большинства элементов системы – это несомненно снижение ее энтропии. Тем более актуальное в свете взрывного развития информационных технологий и роста все более детализированной информации о системе. Информации, к сожалению, неравномерно распределяемой, но в итоге дающей уменьшение неполноты информации о системе (см. ниже), что также показывает скорее падение «политической энтропии», нежели ее возрастание. И тем более, что «добровольный отказ от свободы» и рост информационной насыщенности общественного пространства могут оказаться двумя сторонами одной медали.
Термодинамика и информация
Со времен установления принципа Людвига Больцмана (ок. 1875 г.) стало возможным рассматривать классическую термодинамическую и информационную энтропию как практически и теоретически очень близкие, если не равнозначные. В формулировке Макса Планка (ок. 1900 г.) этот принцип как связь средней энтропии системы с вероятностью данного состояния определяется логарифмической зависимостью:
S = kln(Ω),
где S – общая энтропия состояния системы, константа k = = 1,38*10-23 Дж/К, названная Планком постоянной Больцмана, а Ω – статистический вес состояния, являющийся числом возможных равновероятных микросостояний (способов), с помощью которых можно составить данное макроскопическое состояние. Более ранняя формулировка Джозайя Гиббса (1878 г.) для микросостояний, имеющих разную вероятность, устанавливает зависимость в виде суммы произведения вероятности состояний на натуральные логарифмы этих же вероятностей, взятой с противоположным знаком:
где Pi – вероятность пребывания системы в состоянии i. Минус в начале формулы необходим для приведения обеих частей формулы к общему знаку из-за постоянной отрицательности логарифмов вероятности (так как вероятности всегда меньше 1) и неизменной положительности энтропии. Сам Больцман, комментируя свое физико-статистическое определение энтропии, отмечал, что энтропия характеризует недостающую информацию о системе. В этой интерпретации энтропия может считаться мерой неполноты информации о системе.
В ходе разработки углубленной теории информации информационной энтропией стала считаться мера неопределенности, независимо выведенная как сумма произведений вероятностей событий на логарифмы этих же вероятностей (формула Хартли-Шеннона, основателей теории информации), взятая с противоположным знаком:
где H(x) – средняя энтропия сообщения, иногда обозначаемая также как мера неопределенности какого-либо события, или даже как количество информации, Pi – вероятность отдельного события i. Основание логарифма в принципе может быть любым больше 1: в двоичных информационных системах – 2, математические статистики, использующие формулу в различных научных дисциплинах, в том числе биологических и клинических, часто используют натуральный логарифм.
Отрицательная энтропия, которую описывал Эрвин Шредингер, это, разумеется, не энтропия с отрицательным знаком – это, очень условно говоря, мера удаленности от максимальной энтропии в рассматриваемой системе, хотя само понятие негативной энтропии (негэнтропии) на самом деле гораздо более сложное, глубокое и весьма запутанное, даже в сравнении с часто неоднозначно понимаемой