Ровно 200 лет назад французский инженер выдвинул идею, которая позволила количественно оценить неумолимое движение Вселенной к распаду. Но энтропия, как её понимают сейчас, — это не столько факт о мире, сколько отражение нашего постоянно растущего невежества. Принятие этой истины ведёт к переосмыслению всего — от принятия рациональных решений до пределов возможностей машин.

Жизнь — это антология разрушения. Всё, что вы строите, в конце концов ломается. Все, кого вы любите, умрут. Любое ощущение порядка или стабильности неизбежно рушится. Вся Вселенная движется по мрачному пути к состоянию окончательного хаоса.

Чтобы следить за этим космическим распадом, физики используют понятие, называемое энтропией. Энтропия — это мера беспорядка, и утверждение, что энтропия всегда растёт, известное как второй закон термодинамики, — одна из самых неотвратимых заповедей природы.

Меня давно беспокоит всеобщее стремление к беспорядку. Порядок хрупок. Чтобы создать вазу, требуются месяцы тщательного планирования и мастерства, а чтобы разрушить её футбольным мячом — одно мгновение. Мы проводим жизнь, пытаясь разобраться в хаотичном и непредсказуемом мире, где любая попытка установить контроль, похоже, приводит лишь к обратному результату. Второй закон запрещает механизмам быть идеально эффективными, а это значит, что любая структура, возникающая во Вселенной, в конечном итоге служит лишь для дальнейшего рассеивания энергии — будь то звезда, которая в конце концов взрывается, или живой организм, превращающий пищу в тепло. Мы, несмотря на все наши благие намерения, являемся проводниками энтропии.

«В жизни нет ничего определённого, кроме смерти, налогов и второго закона термодинамики», — писал Сет Ллойд, физик из Массачусетского технологического института. Обойти это указание невозможно. Рост энтропии глубоко переплетён с нашим базовым опытом, объясняя, почему время бежит вперёд и почему мир кажется детерминированным, а не квантово-механически неопределённым.

Но, несмотря на свою фундаментальную важность, энтропия является, пожалуй, самым противоречивым понятием в физике. «Энтропия всегда была проблемой, — сказал мне Ллойд. Путаница отчасти связана с тем, как этот термин перебрасывается и переиначивается между дисциплинами — он имеет схожие, но разные значения во всём, от физики до теории информации и экологии. Но это также связано с тем, что для того, чтобы понять, что такое энтропия, необходимо совершить несколько неудобных философских прыжков.

За последнее столетие, когда физики работали над объединением, казалось бы, разрозненных областей, они представили энтропию в новом свете — повернув микроскоп обратно к провидцу и сменив понятие беспорядка на понятие незнания. Энтропия рассматривается не как свойство, присущее системе, а как свойство наблюдателя, взаимодействующего с этой системой. Этот современный взгляд обнажает глубокую связь между информацией и энергией, которая в настоящее время помогает начать мини-индустриальную революцию в самых малых масштабах.

Спустя двести лет после того, как впервые были посеяны семена энтропии, появляется концепция этой величины, которая скорее оппортунистична, чем нигилистична. Меняются старые представления не только об энтропии, но и о цели науки и нашей роли во Вселенной.

Движущая сила огня

Сади Карно в возрасте 17 лет.
Сади Карно в возрасте 17 лет.

Понятие энтропии выросло из попыток усовершенствовать машины во время промышленной революции. 28-летний французский военный инженер по имени Сади Карно задался целью рассчитать предельную эффективность парового двигателя. В 1824 году он опубликовал 118-страничную книгу под названием «Размышления о движущей силе огня», которую продавал на берегах Сены за 3 франка. Книгу Карно научное сообщество в значительной степени проигнорировало, а сам он умер через несколько лет от холеры. Его тело сожгли, как и многие его бумаги. Но некоторые экземпляры его книги уцелели, и оказалось, что в них таились угли новой науки «термодинамики» — науки о движущей силе огня.

Карно понял, что паровая машина по своей сути — это машина, использующая тенденцию к перетеканию тепла от горячих предметов к холодным. Он придумал самый эффективный двигатель из всех возможных, установив ограничение на долю тепла, которая может быть преобразована в работу, — результат, известный сегодня как теорема Карно. Его самое значительное заявление содержится в виде оговорки на последней странице книги: «Мы не должны ожидать, что когда-либо сможем использовать на практике всю движущую силу горючих веществ». Часть энергии всегда будет рассеиваться за счёт трения, вибрации или другой нежелательной формы движения. Совершенство недостижимо.

Читая книгу Карно несколько десятилетий спустя, в 1865 году, немецкий физик Рудольф Клаузиус придумал термин для обозначения доли энергии, прозябающей в бесполезности. Он назвал её «энтропией», в честь греческого слова, означающего превращение. Затем он изложил то, что стало известно как второй закон термодинамики: «Энтропия Вселенной стремится к максимуму».

Физики той эпохи ошибочно полагали, что тепло — это жидкость (её называли «теплород»). В последующие десятилетия они поняли, что тепло — это скорее побочный продукт столкновения отдельных молекул. Этот сдвиг в дальнейшем позволил австрийскому физику Людвигу Больцману переосмыслить и уточнить идею энтропии с помощью вероятностей.

 Рудольф Клаузиус (слева) стал автором идеи о том, что энтропия имеет тенденцию к увеличению. Людвиг Больцман нашёл причины этого роста в статистической механике.
Рудольф Клаузиус (слева) стал автором идеи о том, что энтропия имеет тенденцию к увеличению. Людвиг Больцман нашёл причины этого роста в статистической механике.

Больцман различал микроскопические свойства молекул, такие как их индивидуальное расположение и скорость, и макроскопические свойства газа, такие как температура и давление. Вместо газа рассмотрим группу одинаковых игровых фигур на шашечной доске. Список точных координат всех шашек Больцман назвал «микросостоянием», а их общую конфигурацию — образуют ли они, скажем, звезду или собраны в кучу — «макросостоянием». Больцман определил энтропию данного макросостояния через количество возможных микросостояний, которые приводят к его возникновению. Высокоэнтропийное макросостояние — это то, которое имеет множество совместимых микросостояний — множество возможных расположений шашек, которые дают один и тот же общий рисунок.

Шашки могут выстраиваться в определённые формы, которые покажутся нам упорядоченными, но при этом существует гораздо больше вариантов, когда они будут выглядеть беспорядочно разбросанными по доске. Таким образом, энтропию можно рассматривать как меру беспорядка. Второй закон превращается в интуитивное вероятностное утверждение: существует больше способов создать беспорядок, чем порядок, поэтому, когда части системы случайным образом перемешиваются между различными возможными конфигурациями, они имеют тенденцию принимать всё более беспорядочные формы.

Тепло в двигателе Карно перетекает от горячего к холодному, потому что более вероятно, что частицы газа перемешаны, а не разделены по скорости — горячие, быстро движущиеся частицы на одной стороне, а холодные, медленно движущиеся — на другой. Точно так же можно объяснить, почему стекло бьётся, лёд тает, жидкости смешиваются, а листья разлагаются. На самом деле, естественная тенденция систем переходить из состояний с низкой энтропией в состояния с высокой энтропией — это единственное, что придаёт Вселенной выделенное временное направление. Энтропия высекает стрелу времени для процессов, которые в противном случае с такой же лёгкостью происходили бы в обратном направлении.

Идея энтропии в конечном итоге выходит далеко за рамки термодинамики. «Когда Карно писал свою работу... я не думаю, что кто-то представлял себе, что из этого выйдет», — говорит Карло Ровелли , физик из Экс-Марсельского университета.

Расширение энтропии

Понятие энтропии пережило возрождение во время Второй мировой войны. Клод Шеннон, американский математик, работал над шифрованием каналов связи, в том числе и того, который соединял Франклина Д. Рузвельта и Уинстона Черчилля. Этот опыт заставил его в последующие годы глубоко задуматься об основах коммуникации. Шеннон стремился измерить количество информации, содержащейся в сообщении. Он сделал это окольным путём, рассматривая знание как уменьшение неопределённости.

 Клод Шеннон, которого называют отцом теории информации, понимал энтропию как неопределённость.
Клод Шеннон, которого называют отцом теории информации, понимал энтропию как неопределённость.

На первый взгляд, уравнение, которое придумал Шеннон, не имеет никакого отношения к паровым машинам. Учитывая набор возможных символов в сообщении, формула Шеннона определяет неопределённость того, какой символ появится следующим, как сумму вероятностей появления каждого символа, умноженную на логарифм этой вероятности. Но если любой символ равновероятен, формула Шеннона упрощается и становится точно такой же, как формула Больцмана для энтропии. Физик Джон фон Нейман якобы настоятельно рекомендовал Шеннону назвать свою величину «энтропией» — отчасти потому, что она близко совпадает с формулой Больцмана, а также потому, что «никто не знает, что такое энтропия на самом деле, поэтому в споре вы всегда будете иметь преимущество».

Подобно тому, как термодинамическая энтропия описывает эффективность работы двигателя, информационная энтропия отражает эффективность коммуникации. Она соответствует количеству вопросов «да-нет», необходимых для выяснения содержания сообщения. Высокоэнтропийное сообщение не содержит шаблонов; без возможности угадать следующий символ, сообщение требует много вопросов, чтобы быть полностью раскрытым. Сообщение с большим количеством шаблонов содержит меньше информации, и его легче угадать. «Это очень красивая взаимосвязанная картина информации и энтропии», — говорит Ллойд. «Энтропия — это информация, которую мы не знаем; информация — это информация, которую мы знаем».

В двух знаковых работах в 1957 году американский физик Э. Т. Джейнс закрепил эту связь, рассмотрев термодинамику через призму теории информации. Он считал термодинамику наукой о том, как делать статистические выводы из неполных измерений частиц. Когда о системе известна частичная информация, предположил Джейнс, всем конфигурациям, совместимым с известными ограничениями, мы должны приписывать равные вероятности. Его «принцип максимальной энтропии» обеспечивает наименее предвзятый способ делать предсказания относительно любого ограниченного набора данных и сегодня применяется повсеместно — от статистической механики до машинного обучения и экологии.

Понятия энтропии, разработанные в разных контекстах, таким образом, хорошо сочетаются друг с другом. Увеличение энтропии соответствует потере информации о микроскопических деталях. Например, в статистической механике, когда частицы в ящике перемешиваются и мы теряем информацию об их положениях и моментах, «энтропия Гиббса» возрастает. В квантовой механике, когда частицы запутываются с окружающей средой, тем самым изменяя своё квантовое состояние, возрастает «энтропия фон Неймана». А когда материя падает в чёрную дыру и информация о ней теряется для внешнего мира, растёт «энтропия Бекенштейна-Хокинга».

То, что энтропия измеряет от раза к разу, — это мера незнания: отсутствие знаний о движении частиц, следующей цифре в строке кода или точном состоянии квантовой системы. «Несмотря на то, что разные понятия энтропии были введены с разными мотивами, сегодня мы можем связать их все с понятием неопределённости», — говорит Ренато Реннер , физик из Швейцарского федерального технологического института в Цюрихе.

Однако такое единое понимание энтропии вызывает неприятный вопрос: о чьём невежестве мы говорим?

Нотка субъективности

Будучи студентом физического факультета в Северной Италии, Карло Ровелли узнал об энтропии и росте беспорядка от своих преподавателей. И с этим что-то было не так. Он пошёл домой, наполнил банку маслом и водой и наблюдал, как жидкости разделяются, когда он тряс её, — на первый взгляд, это расходилось со вторым законом, как его ему описывали. «То, что они мне говорят, — полная чушь», — вспоминает он. «Было так ясно, что в том, как преподают эти вещи, есть проблема».

Опыт Ровелли отражает ключевую причину, по которой энтропия вызывает такое недоумение. Существует множество ситуаций, в которых порядок, казалось бы, должен возрастать: от уборки ребёнком своей спальни до охлаждения индейки в холодильнике.

Ровелли понимал, что его кажущийся триумф над вторым законом был миражом. Сверхчеловеческий наблюдатель, обладающий мощным тепловым зрением, увидел бы, как при разделении масла и воды кинетическая энергия передаётся молекулам, оставляя их в более неупорядоченном с тепловой точки зрения состоянии. «На самом деле происходит формирование макроскопического порядка за счёт микроскопического беспорядка, — говорит Ровелли. Второй закон действует всегда, просто иногда его не видно.

Э.Т. Джейнс (вверху), разрешив парадокс, поднятый Уиллардом Гиббсом, прояснил субъективную природу энтропии.
Э.Т. Джейнс (вверху), разрешив парадокс, поднятый Уиллардом Гиббсом, прояснил субъективную природу энтропии.

Джейнс помог прояснить и этот вопрос. Для этого он обратился к мысленному эксперименту, впервые предложенному в 1875 году Джозайей Уиллардом Гиббсом, который стал известен как парадокс смешивания Гиббса.

Предположим, у вас есть два газа, A и B, в коробке, разделённые перегородкой. Когда вы поднимаете перегородку, по второму закону газы разлетаются и смешиваются, увеличивая энтропию. Но если A и B — одинаковые газы, находящиеся при одинаковом давлении и температуре, то поднятие перегородки не изменит энтропию, так как частицы уже максимально перемешаны.

Возникает вопрос: что будет, если A и B — разные газы, но вы не можете их различить?

Спустя столетие после того, как Гиббс поставил этот парадокс, Джейнс представил решение (которое, по его мнению, Гиббс уже понял, но не смог чётко сформулировать). Представьте, что газы в коробке — это два разных вида аргона, одинаковых за исключением того, что один из них растворим в ещё не открытом элементе под названием вифний. До открытия вифния нет способа различить эти два газа, и поэтому поднятие перегородки не приводит к заметному изменению энтропии. Однако после открытия вифния умный учёный сможет использовать его для различения двух видов аргона, вычислив, что энтропия увеличивается при смешивании двух видов. Более того, учёный мог бы сконструировать поршень на основе вифния, который использовал бы ранее недоступную энергию естественного смешения газов.

Джейнс ясно показал, что «упорядоченность» системы — а значит, и потенциал извлечения из неё полезной энергии — зависит от относительных знаний и ресурсов агента. Если экспериментатор не может различить газы A и B, то это, по сути, один и тот же газ. Как только у учёных появятся средства, позволяющие их различать, они смогут совершать работу, используя склонность газов к смешиванию. Энтропия зависит не от разницы между газами, а от их различимости. Беспорядок — в глазах смотрящего.

 Физик Карло Ровелли давно подчёркивает зависимость тех или иных величин в физике от наблюдателя, включая энтропию.
Физик Карло Ровелли давно подчёркивает зависимость тех или иных величин в физике от наблюдателя, включая энтропию.

«Количество полезной работы, которую мы можем извлечь из любой системы, зависит — очевидно и обязательно — от того, сколько «субъективной» информации мы имеем о её микросостоянии», — писал Джейнс.

Парадокс Гиббса подчёркивает необходимость рассматривать энтропию как относительное, субъективное свойство, а не внутреннее свойство, присущее системе. И всё же субъективную картину энтропии физикам было трудно проглотить. Как писал философ науки Кеннет Денбиг в учебнике 1985 года, «такая точка зрения, если она обоснована, создаст некоторые глубокие философские проблемы и будет иметь тенденцию подрывать объективность научного предприятия».

Принятие этого условного определения энтропии потребовало переосмысления фундаментальной цели науки. Оно подразумевает, что физика более точно описывает личный опыт, чем некую объективную реальность. Таким образом, энтропия попала в новый тренд, согласно которому учёные осознали, что многие физические величины имеют смысл только в связи с наблюдателем. (Даже само время стало относительным благодаря теории относительности Эйнштейна.) «Физики не любят субъективность — у них на неё аллергия», — говорит Энтони Агирре , физик из Калифорнийского университета в Санта-Крузе. «Но абсолюта не существует — это всегда было иллюзией».

Теперь, когда признание пришло, некоторые физики изучают способы внести субъективность в математические определения энтропии.

Агирре и его соавторы разработали новую меру, которую они назвали наблюдательной энтропией. Она позволяет определить, к каким свойствам имеет доступ данный наблюдатель, регулируя, насколько эти свойства размывают, или «огрубляют», представление наблюдателя о реальности. Затем оно приписывает равную вероятность всем микросостояниям, совместимым с этими наблюдаемыми свойствами, как и предлагал Джейнс. Уравнение объединяет термодинамическую энтропию, описывающую макроскопические характеристики системы, и информационную энтропию, относящуюся к микроскопическим деталям. «Такой грубый, отчасти субъективный взгляд — это способ, с помощью которого мы осмысленно воспринимаем реальность», — говорит Агирре.

Ряд независимых групп использовали формулу Агирре в поисках более строгого доказательства второго закона. Со своей стороны, Агирре надеется использовать свою меру для объяснения того, почему Вселенная началась в состоянии низкой энтропии (и, следовательно, почему время течёт вперёд), а также для получения более чёткого представления о том, что энтропия означает для чёрных дыр. «Система наблюдательной энтропии даёт гораздо больше ясности», — говорит Филипп Страсберг, физик из Автономного университета Барселоны, который недавно включил её в сравнение различных определений микроскопической энтропии. «Она действительно связывает идеи Больцмана и фон Неймана с тем, чем люди занимаются в наши дни».

 Энтони Агирре определил величину, которую он называет наблюдательной энтропией, и другие исследователи находят её более понятной.
Энтони Агирре определил величину, которую он называет наблюдательной энтропией, и другие исследователи находят её более понятной.

Тем временем теоретики квантовой информации используют другой подход к работе с субъективностью. Они рассматривают информацию как ресурс, который наблюдатели могут использовать для взаимодействия с системой, всё больше сливающейся с окружающей средой. Для суперкомпьютера с неограниченной мощностью, который мог бы отслеживать точное состояние каждой частицы во Вселенной, энтропия всегда оставалась бы постоянной — поскольку информация не терялась бы — и время перестало бы течь. Но наблюдателям с ограниченными вычислительными ресурсами, таким как мы, всегда приходится иметь дело с грубой картиной реальности. Мы не можем уследить за движением всех молекул воздуха в комнате, поэтому берём усреднённые данные в виде температуры и давления. По мере эволюции систем в более вероятные состояния мы постепенно теряем возможность отслеживать микроскопические детали, и эта неумолимая тенденция материализуется в виде течения времени. «Время физики — это, в конечном счёте, выражение нашего незнания о мире, — пишет Ровелли . Незнание формирует нашу реальность.

«Есть Вселенная снаружи, а есть Вселенная, которую каждый наблюдатель несёт с собой — своё понимание и модель мира, — говорит Агирре. Энтропия позволяет оценить недостатки наших внутренних моделей». Эти модели, по его словам, «позволяют нам делать хорошие предсказания и разумно действовать в часто враждебном, но всегда сложном физическом мире».

Движимые знаниями

Летом 2023 года Агирре организовал выездной лагерь в предгорьях исторического поместья в Йоркшире, Англия, в рамках некоммерческой исследовательской организации, одним из основателей которой он стал в 2006 году, под названием Институт фундаментальных вопросов, или FQxI. Физики со всего мира собрались на недельный интеллектуальный лагерь с возможностью заниматься йогой, медитацией и купанием. На мероприятии собрались исследователи, получившие гранты от FQxI на изучение того, как использовать информацию в качестве топлива.

Для многих из этих физиков области изучения двигателей и компьютеров начали пересекаться. Исследователи научились относиться к информации как к реальному, количественно измеряемому физическому ресурсу – показателю того, сколько работы можно извлечь из системы. Они поняли, что знание — это сила. Теперь они собираются использовать эту силу.

Однажды утром, после сеанса йоги в юрте, расположенной на территории лагеря, группа слушала Сюзанну Стилл, физика из Гавайского университета в Маноа. Она рассказала о новой работе, которая возвращает нас к мысленному эксперименту столетней давности, впервые предложенному физиком венгерского происхождения Лео Сцилардом.

Представьте себе коробку с вертикальной перегородкой, которая может скользить туда-сюда, от левой до правой стенки. В коробке находится одна частица, расположенная слева от перегородки. Когда частица рикошетит от стенок и сталкивается с перегородкой, она толкает перегородку вправо. Хитрый демон может натянуть струну через шкив таким образом, что, когда частица толкает перегородку, она натягивает струну и поднимает груз за пределами коробки. Улучив момент, демон может вернуть перегородку на место и запустить процесс заново, что позволит получить очевидный источник бесконечной энергии.

Однако, чтобы постоянно получать работу из коробки, демон должен знать, в какой стороне коробки находится частица. Двигатель Сциларда питается информацией.

В принципе, информационные двигатели похожи на парусники. В океане вы используете свои знания о направлении ветра, чтобы настроить паруса и продвинуть лодку вперёд.

Но, как и тепловые двигатели, информационные двигатели никогда не бывают идеальными. Они тоже должны платить налог в виде производства энтропии. Причина, по которой мы не можем использовать информационные двигатели в качестве вечных двигателей, как отмечали Сцилард и другие, заключается в том, что для измерения и хранения информации в среднем генерируется не меньше энтропии. Знание рождает силу, но приобретение и запоминание этого знания потребляет энергию.

Через несколько лет после того, как Сцилард разработал концепцию своего двигателя, канцлером Германии стал Адольф Гитлер. Сцилард, родившийся в еврейской семье и живший в Германии, бежал. Его работа оставалась незамеченной в течение десятилетий, пока в конце концов не была переведена на английский язык, как отмечает Стилл в недавнем историческом обзоре информационных двигателей.

Недавно, изучая основные компоненты обработки информации, Стилл удалось расширить и обобщить концепцию информационного двигателя Сциларда.

Уже более десяти лет она работает над подходом, позволяющим рассматривать наблюдателей как физические системы, подверженные собственным физическим ограничениям. Насколько близко можно подойти к этим ограничениям, зависит не только от данных, к которым имеет доступ наблюдатель, но и от его стратегии обработки данных. В конце концов, они должны решить, какие свойства измерять и как хранить эти детали в своей ограниченной памяти.

Изучая этот процесс принятия решений, Стилл обнаружила, что сбор информации, которая не помогает наблюдателю делать полезные прогнозы, снижает его энергоэффективность. Она предложила наблюдателям следовать тому, что она называет «принципом наименьшего самовнушения» — выбирать стратегии обработки информации, которые максимально приближены к их физическим границам, чтобы повысить скорость и точность принятия решений. Она также поняла, что эти идеи можно продолжить, применив их к модифицированным информационным двигателям.

Лео Сцилард разработал идею двигателей, работающих на информации.
Лео Сцилард разработал идею двигателей, работающих на информации.

В оригинальном проекте Сциларда измерения демона идеально показывают, где находится частица. Однако в реальности мы никогда не обладаем совершённым знанием о системе, потому что наши измерения всегда несовершенны — датчики подвержены шуму, дисплеи имеют ограниченное разрешение, а компьютеры — ограниченный объём памяти. Стилл показала, как с помощью небольших модификаций двигателя Сциларда можно ввести в эксперимент «частичную наблюдаемость», присущую реальным измерениям. По сути, это делается через изменение формы разделителя .

Представьте, что разделитель наклонён под углом внутри коробки, и пользователь видит только горизонтальное положение частицы (например, он видит её тень, падающую на нижний край коробки). Если тень находится полностью слева или справа от разделителя, вы точно знаете, на какой стороне находится частица. Но если тень находится где-то в средней области, частица может быть либо над, либо под наклонной перегородкой, а значит, либо на левой, либо на правой стороне коробки.

Используя информационные двигатели с частичной наблюдаемостью, Стилл вычислила наиболее эффективные стратегии для измерения местоположения частицы и кодирования их в памяти. В результате был получен чисто физический вывод алгоритма, который в настоящее время также используется в машинном обучении и известен как алгоритм информационного бутылочного горлышка. Он позволяет эффективно сжимать данные, сохраняя только важную информацию.

С тех пор вместе со своим аспирантом Дорианом Даймером Стилл изучила несколько различных конструкций модифицированных двигателей Сциларда и оптимальные стратегии кодирования в различных случаях. Эти теоретические устройства служат «фундаментальными строительными блоками для принятия решений в условиях неопределённости», — говорит Даймер, имеющий образование в области когнитивных наук, а также физики. «Вот почему изучение физики обработки информации так интересно для меня, потому что вы проходите полный круг в некотором смысле и возвращаетесь к тому, чтобы описывать учёного».

Индустриализация заново

Не только в Йоркшире мечтали о двигателях Сциларда. В последние годы несколько грантополучателей FQxI разработали в лаборатории действующие двигатели, в которых информация используется для приведения в действие механического устройства. В отличие от эпохи Карно, никто не ожидает, что эти миниатюрные двигатели будут приводить в движение поезда или выигрывать войны; вместо этого они служат испытательными стендами для изучения фундаментальной физики. Но, как и в прошлый раз, двигатели заставляют физиков по-новому представить себе, что такое энергия, информация и энтропия.

С помощью Стилл Джон Беххофер воссоздал двигатель Сциларда, использовав кварцевый шарик размером меньше пылинки, плавающий в ёмкости с водой. Он и его коллеги из Университета Саймона Фрейзера в Канаде улавливали шарик лазером и следили за её случайными тепловыми колебаниями. Когда шарик уходил вверх, они быстро поднимали лазерную ловушку, чтобы воспользоваться движением шарика. Как и предполагал Сцилард, им удалось поднять вес, используя силу информации.

 Сюзанна Стилл модифицировала двигатели Сциларда, чтобы учесть случаи неопределённости и частичной информации
Сюзанна Стилл модифицировала двигатели Сциларда, чтобы учесть случаи неопределённости и частичной информации

Исследуя пределы извлекаемой работы из своего информационного двигателя реального мира, Беххофер и Стилл обнаружили, что в определённых режимах он может значительно превосходить обычные двигатели. Они также отследили неэффективность, связанную с получением частичной информации о состоянии шарика, вдохновившись теоретической работой Стилл.

Теперь информационный двигатель уменьшается до квантовых масштабов с помощью Натальи Арес, физика из Оксфордского университета, которая вместе со Стилом участвовала в дискуссии на выездном семинаре. На кремниевых чипах размером с подставку для бокала Арес удерживает один электрон внутри тонкой углеродной проволоки, которая подвешена между двумя опорами. Эта «нанотрубка», охлаждённая до тысячных долей градуса выше абсолютного нуля, вибрирует, как гитарная струна, и частота её колебаний определяется состоянием электрона внутри. Отслеживая мельчайшие колебания нанотрубки, Арес и её коллеги планируют диагностировать работу различных квантовых явлений.

У Арес есть длинный список экспериментов по исследованию квантовой термодинамики, набросанных на меловых досках в коридорах. «По сути, это вся промышленная революция, но в нано-формате», — говорит она. Один из запланированных экспериментов основан на идее Стилл. Он включает в себя настройку того, насколько точно колебания нанотрубки зависят от электрона (в сравнении с другими неизвестными факторами), по сути, предоставляя ручку для настройки незнания наблюдателя.

Арес и её команда исследуют пределы термодинамики на мельчайших масштабах — в некотором смысле, движущую силу квантового огня. Классически предел того, насколько эффективно движение частиц может быть преобразовано в работу, устанавливается теоремой Карно. Но в квантовом случае, когда на выбор предлагается целый зверинец энтропий, гораздо сложнее определить, какая из них устанавливает соответствующие границы — или как вообще определить количество проделанной работы. «Если у вас есть один электрон, как в наших экспериментах, что значит энтропия?» — сказала Арес. «По моему мнению, мы всё ещё очень сильно заблуждаемся».

 Наталья Арес изучает термодинамику в квантовом масштабе в своей лаборатории в Оксфорде, где её изготовленная на заказ холодильная камера ярко-розового цвета служит символом меняющихся времён
Наталья Арес изучает термодинамику в квантовом масштабе в своей лаборатории в Оксфорде, где её изготовленная на заказ холодильная камера ярко-розового цвета служит символом меняющихся времён

Недавнее исследование, проведённое под руководством Николь Юнгер Халперн , физика из Национального института стандартов и технологий, показывает, как общепринятые определения энтропии, которые обычно являются синонимами, могут расходиться в квантовой области, опять же из-за неопределённости и зависимости от наблюдателя. В таких крошечных масштабах невозможно знать несколько свойств системы сразу. А порядок измерения определённых величин может повлиять на результаты измерений. Юнгер Халперн считает, что мы можем использовать эти квантовые странности в своих интересах. «В квантовом мире есть дополнительные ресурсы, которые недоступны в классическом, поэтому мы можем обойти теорему Карно», — говорит она.

Арес расширяет эти новые границы в лаборатории, надеясь проложить путь к более эффективному сбору энергии, зарядке устройств или вычислениям. Эксперименты также могут дать представление о механике самых эффективных систем обработки информации, которые нам известны: нас самих. Учёные не знают, как человеческий мозг может выполнять сложнейшую умственную эквилибристику, используя всего 20 ватт энергии. Возможно, секрет эффективности вычислений в биологии кроется в использовании случайных флуктуаций на малых масштабах, и эти эксперименты направлены на поиск возможных преимуществ. «Если в этом есть какой-то выигрыш, есть шанс, что природа действительно использует его», — говорит Джанет Андерс , теоретик из Эксетерского университета, работающая с Арес. «Это фундаментальное понимание, которое мы развиваем сейчас, надеюсь, поможет нам в будущем лучше понять, как биология справляется с теми или иными задачами».

Следующий раунд экспериментов Арес проведёт в холодильной камере ярко-розового цвета, которая свисает с потолка её лаборатории в Оксфорде. Несколько лет назад она в шутку предложила производителям перекрасить холодильник, но они предупредили, что металлические частицы краски помешают её экспериментам. Тогда компания тайком отнесла холодильник в автосервис, где его покрыли броской розовой плёнкой. Арес считает свою новую экспериментальную арену символом меняющихся времён, отражающим её надежду на то, что новая промышленная революция будет отличаться от предыдущей – будет более осознанной, экологичной и всеохватывающей.

«Мне кажется, что мы находимся в самом начале чего-то большого и замечательного», — говорит она.

Принятие неопределённости

В сентябре 2024 года несколько сотен исследователей собрались в Палезо, Франция, чтобы отдать дань уважения Карно в связи с 200-летием выхода его книги. Участники из разных областей науки обсудили, как энтропия проявляется в каждой из их областей исследований — от солнечных батарей до чёрных дыр. В приветственном слове директор Национального центра научных исследований Франции извинилась перед Карно от имени своей страны за то, что не учла влияние его работ. Позже вечером исследователи собрались в декадентского вида золотой столовой, чтобы послушать симфонию, написанную отцом Карно и исполненную квартетом, в который входил один из дальних потомков композитора.

Идея, озвученная Карно, возникла в результате попытки установить абсолютный контроль над миром часовых механизмов — святого Грааля эпохи Разума. Но по мере того как понятие энтропии распространялось в естественных науках, его цель менялась. Уточнённый взгляд на энтропию — это тот, который избавляется от ложных мечтаний о полной эффективности и идеальном предсказании и вместо этого признаёт наличие в мире неустранимой неопределённости. «В какой-то степени мы уходим от просвещения в нескольких направлениях, — говорит Ровелли, — от детерминизма и абсолютизма к неопределённости и субъективности».

Хотим мы того или нет, но мы — рабы второго закона; мы не можем не принуждать Вселенную к её судьбе — высшему беспорядку. Но наш уточнённый взгляд на энтропию позволяет смотреть на неё с большим позитивом. Тенденция к беспорядку — это то, что питает все наши машины. Хотя потери полезной энергии ограничивают наши возможности, иногда новый взгляд может открыть запасы порядка, скрытые в хаосе. Более того, неупорядоченный космос все больше наполняется возможностями. Мы не можем обойти неопределённость, но мы можем научиться управлять ею, а может быть, даже принять её. Ведь именно незнание побуждает нас искать новые знания и писать историю приобретения нового опыта. Энтропия, другими словами, — это то, что делает нас людьми.

Вы можете оплакивать неизбежный крах порядка, а можете принять неопределённость как возможность учиться, чувствовать и делать выводы, делать лучший выбор и извлекать выгоду из движущей силы.

Комментарии (16)


  1. LavaLava
    03.01.2025 08:39

    Так странно, что жизнь случайно самозародилась в мире, стремящемся к хаосу.


    1. MinimumLaw
      03.01.2025 08:39

      Шашки могут выстраиваться в определённые формы, которые покажутся нам упорядоченными, но при этом существует гораздо больше вариантов, когда они будут выглядеть беспорядочно разбросанными по доске.

      Остальное лишь вопрос вероятности. С учетом того, что время достижения хаоса стремится к бесконечности, вопрос возникновения того или иного - лишь вопрос вероятности (читай времени). А то, что однажды случайно зародившаяся жизнь рано или поздно себя же и уничтожит - тоже только вопрос времени. Как и то, что случится ли это прямо сейчас - всего лишь вопрос вероятности.


      1. RoasterToaster
        03.01.2025 08:39

        Вы сейчас на ходу сделали аксиомой довольно спорной тезис, о том примет ли система все возможные состояния за бесконечный промежуток времени.


        1. MinimumLaw
          03.01.2025 08:39

          А так ли нужны ВСЕ возможные состояния? Что есть аксиома, а что вероятность? И правда ли, что вероятность зарождения жизни в мире, стремящемся к хаосу из исходного сообщения строго нулевая? Впрочем, мой ответ - он скорее к тезису о странности данного события. И только к нему.


        1. creo_kiev
          03.01.2025 08:39

          Энтропия замкнутой системы не убывает, то есть все процессы в мире глобально ведут к увеличению беспорядка. Неумолимость времени – это неумолимость роста энтропии.
          © Д.Ингланд


      1. amazingname
        03.01.2025 08:39

        Вообще говоря, все не так. Случайно ничего наподобие жизни и вообще никакого порядка не возникает, потому что вероятность таких событий неотличима от нуля.

        Возникновение жизни по идее должно быть закономерно. Случайность нужна только в той мере, в которой антропный принцип не-до-настроил законы физики.

        Жизнь вообще не имеет прямого отношения к порядку или к хаосу. Жизнь - это упорядоченные самовоспроизводящиеся структуры, существующие в потоке трансформации от порядка к хаосу и не влияющие на общее количество хаоса или порядка.

        Т.е. где-то появляются особые конфигурации через которые энтропия увеличивается и эти конфигурации начинают реплицироваться порождая другие такие же конфигурации. При этом отбор этих конфигураций не оптимизирует что-то касающиеся энтропии а вместо этого оптимизирует свою способность реплицироваться.

        Конец же жизни настает тогда, когда старая среда для репликации и оптимизации исчезла, а новая еще не освоена. Или второй вариант - когда остается только один экемпляр "репреканта", которому не с кем конкурировать. Это случится как только люди научатся жить вечно и программировать свои же мозги. Внутри человечества конкуренция за возможность реплицироваться пропадет а все человечество в целом не имеет конкурентов. В итоге все загнется.


        1. MegaMANGO
          03.01.2025 08:39

          Почему жизнь не может возникнуть случайно? Понятное дело, что человек, ящерица, или даже простая клетка не могут. Но базовые структуры из которых всё это когда-то развилось могли возникнуть случайно


    1. Wizard_of_light
      03.01.2025 08:39

      Мир просто нечто большее чем простой хаос. Вспоминая о случайности не надо забывать о закономерностях, а вспоминая об относительном надо помнить и об инвариантном.


    1. eugenk
      03.01.2025 08:39

      На самом деле всё довольно просто. Солнце очень горячее. А небо очень холодное. Солнце излучает небольшое (относительно конечно) число коротковолновых фотонов, нагревающих Землю. А Земля переизлучает в небо большое количество длинноволновых. Этот процесс настолько увеличивает энтропию системы Солнце, Земля, жизнь, что её уменьшение жизнью весьма будет незначительно.


    1. RedHead
      03.01.2025 08:39

      Ну почему? Возьмем гравитацию. Черные дыры занимают крайне малую долю объема пространства Вселенной. Также и с жизню, в 99.9999999999999% "местах" ее нету.

      Вообще жизнь, это просто форма упаковки энергии. Энергия накапливается в виде сложности систем.

      Энтропия увеличивается в сторону глобальности, в "ширину". А негэнтропия в сторону сложности. Т.е. в сторону локальности.


    1. Manrus
      03.01.2025 08:39

      Жизнь зародилась благодаря источнику низкой энтропии - Солнцу. Без таких источников возникновение жизни по сути невозможно


    1. SebastianP
      03.01.2025 08:39

      Однажды в коробке с шайбой-граверами я нашел 2 случайно сцепленных гравера. Я потратил почти минуту на их разделение. (наверняка на микроскопическом уровне я драл металл по-черному чтоб разъединить их) Но они у меня случайно от тряски при переноске так сцепились. - теперь я не удивляюсь случайному зарождению жизни))


  1. amazingname
    03.01.2025 08:39

    ИМХО, суть энтропии все время ищут где-то не там.

    Если понаблюдать за обратимыми клеточными автоматами, в которых работают законы сохранения в каком то виде, то принцип неубывания энтропии в них так же замечательно наблюдается.

    Я знаю как миниму два таких автомата - это одномерный 37R и двумерный Critters. В 37R сохраняется число "полос" (образуются когда он достаточно разрежен) а в Critters - число клеток (если его чуть удобнее раскрасить).

    В этих автоматах легко можно организовать "большой взрыв" и наблюдать как начальный порядок рушиться в хаос и никогда не упорядочивается обратно (кроме как редко и случайно, как и в физике).

    Математическая суть энтропии в таком разрезе она не проста но совсем не так уж непостижима.

    Если мы возьмем состояние автомата в любой момент, то для этого состояния мы можем вычислить нечто вроде "численной оценки" колмогоровской сложности. Это и будет величина энтропии. Самый простой пример такой численной оценки - загнать массив с описанием состояния автомата в архиватор. Чем дальше от большого взрыва - тем больше будет размер архива и тем больше энтропия этого мира и никогда наоборот.

    Поясню детальнее. Колмогоровская сложность для состояния автомата - это о размер алгоритма, который может породить это состояние и остановиться после этого. Для обратимого автомата в котором происходит "большой взрыв" формально она будет равна сложности порождения начального состояния на момент большого взрыва плюс размер алгоритма законов автомата полюс номер состояния в котором нужно остановиться.

    Т.е. непосредтвенно Колмогоровская сложность не годится здесь в качестве энтропии, потому что она почти не растет.

    Но фишка в том, что если вы являетесь обитателем этого автомата а не наблюдаете его со стороны, то все состояние автомата для вас не будет известно в точности, и точную колмогоровскую сложность на практике определить будет невозможно. Зато вы можете выполнить некую практическую оценку Колмогоровской сложности - найти некие легко распознаваемые закономерности и предположить, что все что вне этих закономерностей - абсолютно хаотично. Т.е. например у нас есть группа клеток автомата в пределах некого квадрата и остальная вселенная пуста. Тогда Мы видим алгоритм порождения такого мира: рандомное размещение клеток внутри квадрата. Сложность этого алгоритма будет равна размеру алгооритма построения квадрата плюс размеру массива с координатами точек внутри квадрата (т.е. этот массив не-архивируем, не имеет закономерностей).

    Дальше мы имеем интересный закон, заключающийся в том, что любые закономерности, которые можно выявить с небольшими вычислительными затратами при развитии автомата во времени уничтожаются с большой вероятностью (могут и порождаться но только абсолютно случайно с экспоненциально малой вероятностью).

    Т.е. мы нарисовали некую картинку в автомате, на которой мы видим определенные закономерности. Они объективны, их увидим не только мы, их увидит собака, или ChatGPT или даже просто архиватор, их в принципе может найти любая вычислительная система, созданная для поиска закономерностей. Дальше любой автомат с любыми законами будет делать эти закономерности все менее доступными для выявления на каждом шаге развития автомата. Это и есть второй закон термодинамики. Почему это так работает, формально непонятно, но понятно что законы автомата "не знают" об закономерностях в автомате и потому их ломают, произвольно все меняя.

    И последнее - почему эти легко с точки зрения вычислений обнаружимые закономерности так важны? Потому что только этот вид закономерностей позволяет обитателям этого мира добиваться произвольных целей, которые они себе поставили. Эти цели всегда связаны с неким низко-энтропийным состоянием автомата, которые нужно получить как желаемый результат. Соответственно, процесс достижения этих целей должен начинаться с состояния с еще меньшей энтропией.

    Значит ли это, что энтропия субъективна? В определенной мере. Для того чтобы объективно считать энтропию нам нужен некий универсальный AI, способный выявлять в предложенном состоянии автомата все закономерности, которые возможно выявить за доступное внутри этого же автомата время и с доступными ресурсами. Дальше, размер архива состояния автомата (или алгоритма порождения состояния автомта), сформированный с учетом всех этих закономерностей и будет обхективной оценкой энтропии этого состояния. Эта величина всегда будет расти со временем развития автомата. И эта величина характеризует пригодность мира для достижения неких произвольных целей их обитателями.

    В простейших случаях, когда закономерности очевидны, вроде ящик/газ эта величина может быть вычислена просто на калькуляторе без применения супер-AI для архивирования состояния. Это и есть физическое понимание энтропии.

    И дальше для всего этого нужна наверно какая-то математика, про которую я не слышал.

    Если кто слышал, расскажите.


  1. Rek1
    03.01.2025 08:39

    Крах порядка-это можно сравнивать,с работой(или несколькими(2,или 3- и,то по одной специальности,без переучивания глубокого-Я водитель кобылы,а она стала с мотором,а дорога осталась!),(правда на самолёт,с такими мозгами от кобылы,вряд-ли многие смогли?), и вот на такой работе,ты становишься пенсионером с непрерывным стажем,да и ещё ветераном...а,потом изумляешься,что у летчика пенсия больше и стаж по-другому считают...и, в этом страх потери работы,которую знаешь,а переучиваться мало,кто желает,да и мозги(да и гены трудно (или уже не переделать, на новый лад)уже старые...короче, труднее оседлать своего Боливара,который не увезёт двоих...или,чтоб ты жил в эпоху перемен(китайское проклятие-поговорка,тому,кому не нравиться жить,как все-усредненно),но эта стабильность губительна оказывается...для государств(может древний Рим,Греция,колониальные империи)...а,какая страна без колоний развивалась быстрее...?


  1. Andrey310380
    03.01.2025 08:39

    Странная зависимость выведена автором статьи: - "... для супер компьютера энтропия была бы постоянной и время остановилось бы или не существовало бы."

    Если исходить из формулировки что время это сравнительно частотная характеристика процессов ( единственная формулировка не имеющая противоречий и объясняющая всю известную фактуру), то имея возможность оценивать состояния всех частиц во вселенной не ведёт к остановке времени для этого наблюдателя, а наоборот - была бы наиболее полная информация о времени во вселенной и её полное осознание.


  1. dkolomiets
    03.01.2025 08:39

    Вообще, второй закон термодинамики и само понятие энтропии вводится только для изолированной системы, которых в реальном мире, строго говоря, нет. А открытые системы могут сколько угодно долго аккумулировать в себе материю «с низкой энтропией» (со значительной долей энергии связей относительно тепловой энергии), экспортируя при этом «избыточную энтропию» во внешнюю среду. Живые системы являются как раз такими открытыми системами, которые действуют именно так - аккумулируют в себе вещество с низкой энтропией, а во внешнюю среду экспортируют избыток энтропии. При этом живые системы самовоспроизводятся, и, таким образом, упорядочивают всё больше материи. Теоретически «живые системы» могу сколько угодно поддерживать себя (в массе, а не индивидуальные организмы) живыми сколько угодно долго при наличии внешней среды. И всё это никак не противоречит второму закону термодинамики. Так что второй закон совсем не приговор, и он не лишает смысла всё происходящее.