Жизнь VS Энтропия - страница 10

Шрифт
Интервал



«Единичная группа атомов», о которой идет речь, это молекула дезоксирибонуклеииновой кислоты (ДНК). Это открытое в 1869 году вещество к 1944 году было надежно определено как носитель наследуемых свойств живых организмов. Особенно поразительным было осознание того, что эта молекула есть некий код, в котором записана вся информация о живом организме. Более того, это не просто код, а программа развития зародыша организма в полноценную форму. Вот как об этом написано у Шредингера:


«Но термин шифровальный код, конечно, слишком узок. Хромосомные структуры служат в то же время и инструментом, осуществляющим развитие, которое они же предвещают. Они являются и кодексом законов и исполнительной властью или, употребляя другое сравнение, они являются и планом архитектора и силами строителя в одно и то же время».


Помещенный в соответствующую «вычислительную» среду единственный экземпляр ДНК запускает невероятный с точки зрения статистической физики динамический процесс, нарушающий Второе Начало. Для этого достаточно, чтобы в среде поддерживались определенные физические условия (температура, давление, поток света и т. п.) и содержались достаточно простые компоненты.

Книга Э. Шредингера всего на три года опередила новое революционное событие в науке, связанное с понятием энтропии. В 1948 году американский математик К. Шеннон, исследуя передачи сообщений в больших системах связи, пришел к формуле (3) как меры неопределенности состояний таких систем. Это было предопределено аналогией случайного поведения сообщений и микрочастиц. Знакомство Шеннона с корифеем науки XX века Дж. фон Нейманом имело следующие последствия:


«Больше всего меня беспокоило, как это назвать. Я думал назвать это "информацией", но это слово использовалось слишком часто, поэтому я решил назвать это ‘неопределенностью’. Когда я обсуждал это с Джоном фон Нейманом, у него появилась идея получше. Фон Нейман сказал мне: "Вы должны называть это энтропией по двум причинам: во-первых, ваша функция неопределенности использовалась в статистической механике под этим названием, так что у нее уже есть название. Во-вторых, и это более важно, никто не знает, что такое энтропия на самом деле, поэтому в дебатах у вас всегда будет преимущество»».


На идеях К. Шеннона, Р. Хэмминга и других исследователей быстро развилась новая отрасль науки – теория информации. Она базируется на следующих постулатах: