Bits, calor y motores

Rubén Rodríguez Abril

La relación fundamental entre información, trabajo y entropía -estudiada desde Maxwell hasta Landauer- constituye uno de los pilares más profundos de la física moderna. Este artículo explora cómo el conocimiento preciso del estado de un sistema (p.e. un gas en un pistón) puede transformarse en trabajo útil. Se presentan experimentos mentales como el demonio de Maxwell o los motores propulsados por información. Se exploran asimismo el coste energético del olvido, la diferencia entre computación reversible e irreversible, así como la asombrosa brecha de eficiencia termodinámica entre chips de silicio y seres vivos, revelando la profunda conexión existente entre energía información y entropía.

Introducción

¿Es posible crear un motor cuyo combustible sea exclusivamente la información? ¿La simple operación de olvidar/eliminar datos genera por sí sola calor? ¿Tienen los seres vivos una eficiencia termodinámica superior a los chips de silicio? Por increíble que parezca, todas las preguntas tienen una respuesta afirmativa. Y ello revela una intrínseca conexión entre información, energía y entropía que exploraremos en este artículo.

El concepto de entropía fue introducido por Rudolf Clausius a mediados del siglo XIX con el objeto de explicar por qué no era posible construir una máquina de vapor que funcionara perpetuamente extrayendo energía del entorno. La entropía expresa la fracción de la energía interna de un sistema que no puede transformarse en trabajo útil debido a su dispersión entre las moléculas del fluido en forma de agitación térmica desordenada.

¿Motores alimentados por información?

La relación entre información y entropía ya fue intuida por uno de los fundadores de la termodinámica estadística, James Clerk Maxwell, que propuso un experimento mental para demostrar que el conocimiento previo del estado dinámico de cada partícula podía permitir la disminución de niveles de entropía de un sistema.

El esquema de Maxwell era, de un modo simplificado, el siguiente: un cilindro lleno de gas se divide en dos compartimentos A y B separados por una fina mampara. Ambos compartimentos se hallan en equilibrio térmico. En la mampara separadora hay una pequeña apertura controlada por un pequeño ser imaginario, que la posteridad conocería con el nombre de demonio de Maxwell. El demonio sólo permite el paso de las moléculas de alta energía cinética que se dirijan hacia el compartimento A, y de las de baja energía hacia B. Como resultado, se transfiere calor desde B hacia A, y con ello, se desafía la segunda ley de la termodinámica (pues el flujo de calor desde un recipiente frío a otro caliente supone una reducción de entropía). La actividad del demonio y su conocimiento de la posición y velocidad de las partículas permite, pues, revertir el aumento natural de la entropía.

El demonio y el aparato mecánico

Figura 1: El demonio de Maxwell permite el paso de las partículas más energéticas al compartimento de la izquierda, y el de las más lentas, al de la derecha. El resultado es el calentamiento del primero y el enfriamiento del segundo.

Décadas más tarde, Leo Szilard creó una variación del experimento: una sola molécula encerrada en un cilindro dividido en dos mitades. Una vez que se detecta en qué mitad está la molécula, el pistón se introduce en la que está vacía (el pistón se mueve al no estar presente ninguna molécula que pueda oponérsele). Tras ello, se levanta de nuevo la mampara de separación. La agitación térmica de la partícula empuja el pistón hacia el exterior, generando trabajo. La molécula a su vez recupera energía cinética absorbiendo calor desde el exterior. De este modo, el conocimiento de un bit de información (0 o 1, izquierda o derecha) permite transformar la energía térmica en trabajo.

Aunque la idea de Szilard de extraer trabajo a partir de información era sólo un experimento mental, en los últimos años han surgido prototipos experimentales de motores informacionales a escala microscópica que transforman agitación térmica en trabajo por medio de información. Algunos de ellos operan en contextos clásicos y otros en el ámbito cuántico.

Esta sorprendente posibilidad se apoya en un principio fundamental: la información posee una naturaleza profundamente física. No sólo porque existen constantes físicas universales, como c, que imponen un límite máximo a la velocidad de propagación de la misma, sino también porque la información puede alterar la entropía de un sistema y propulsar motores. Pero esta capacidad tiene su contrapartida: el olvido (borrado) de información genera forzosamente disipación térmica, un principio con importancia crucial en el ámbito de la tecnología de semiconductores, tal y como se mostrará en la sección siguiente.

El coste termodinámico del olvido

Uno de los principales problemas a los que se enfrenta la ingeniería de semiconductores es la disipación térmica de los chips, que puede elevar su temperatura hasta niveles peligrosos en el caso de que funcionen a frecuencias demasiado altas. En 1974 el ingeniero de IBM Robert H. Dennard formuló una ley que se convertiría en uno de los pilares del diseño de microprocesadores: señalaba que a pesar de la continua miniaturización de los circuitos integrados, la disipación térmica por unidad de área permanecía constante. El cumplimiento de esta ley, hermana de la de Moore, permitió durante décadas hacer procesadores cada vez más rápidos y densos. Sin embargo, la Ley de Dennard dejó de cumplirse en torno al año 2006. A partir de entonces, las frecuencias se estabilizaron en torno a los 5 o 6 GHz, marcando el fin de una era en el diseño de los procesadores.

Ante esta situación, cabe preguntarse: ¿existe algún límite teórico, impuesto por la física fundamental, a la disipación térmica mínima de un chip? ¿o es más bien una cuestión de ingeniería que podría ser resuelta con nuevas tecnologías, permitiéndose así una reviviscencia de la Ley de Dennard? Rolf Landauer, en un célebre artículo de 1961, demostró que los principios de la termodinámica implicaban que el borrado irreversible de información conlleva necesariamente la disipación de una cantidad mínima de energía.

Según el principio de Landauer, cada bit de información que se borra supone como mínimo la emisión de energía, vía radiación térmica, por el siguiente valor:

E = kTln2

donde k es la constante de Boltzmann y T es la temperatura ambiente. A nivel teórico, la fórmula es claramente una derivación de la célebre ecuación de Boltzmann, según la cual, la entropía de un sistema termodinámico equivale a:

S = klnW

donde S es la entropía y W el volumen del espacio de fases del fluido. Este último es un hiperespacio virtual que describe el estado de un sistema termodinámico de N partículas. En el caso de partículas libres, se asignan 6 dimensiones a cada una de ellas, que describen su posición y su momentum, de lo que resultan 6N dimensiones en total. La existencia de restricciones, estructuras o ligaduras entre partículas hacen disminuir el volumen del espacio de fase del fluido y en consecuencia también la entropía.

En el caso considerado por Landauer, el sistema es un dispositivo biestable, que admite dos estados diferentes: 0 y 1. La eliminación de uno de ellos, por ejemplo mediante la operación de reducir a 1, conlleva la desaparición de la mitad de los estados lógicos del sistema. Y por lo tanto también una disminución de la entropía interna (ΔS) de ln 2. Esta entropía debe ser bombeada hacia el exterior vía radiación térmica, cuya energía equivale a TΔS. No se puede borrar información sin calentar el mundo.

ChatGPT Image 7 may 2025, 15_37_45

Figura 2: En un motor “entrópico”, la información sobre los estados de las partículas de sus pistones debe ser bombeada hacia el exterior, vía radiación térmica.

Computación reversible e irreversible

Charles H. Benett, ingeniero de IBM, perfiló aun más las ideas de Landauer y estableció un principio clave: la disipación de energía no es una consecuencia inevitable del cómputo, sino que sólo tiene lugar como consecuencia de operaciones computacionales irreversibles, que provocan pérdida definitiva de información. En este marco, el demonio de Maxwell reduce la entropía de un gas, pero a la vez aumenta la entropía del exterior (vía transferencia de calor) cuando borra de su memoria (esto es, olvida) los datos de velocidad de las partículas.

En la actualidad, la mayoría de las puertas lógicas que integran los circuitos de los procesadores conllevan la eliminación de bits de información. Tal es el caso de AND, OR y XOR (entre otras), que reciben como entrada dos bits, y sólo producen uno de salida.

Por este motivo, algunos especialistas proponen la construcción de procesadores basados en lógica adiabática, cuyas puertas no eliminen bits al procesar información. Como ejemplos de operaciones lógicas isentrópicas (que no provocan el incremento de entropía) podemos citar las puertas Toffoli y Fredkin, así como las operaciones CNOT o SWAP (esta última implica la permuta de bits).

En la actualidad, estas operaciones de lógica adiabática, aunque fueron concebidas para su empleo en computación clásica, han encontrado su uso fundamentalmente en circuitos cuánticos, donde la reversibilidad lógica es una característica esencial. Recientemente, también se ha propuesto su uso para dispositivos IoT de bajo consumo, donde reducir la disipación térmica es una prioridad.

No obstante, hay autores que se muestran escépticos sobre la utilidad práctica de todas estas consideraciones. Señalan que los circuitos integrados actuales operan con niveles de energía muy superiores al umbral kTln2, y por ello el límite de Landauer les resulta muy poco relevante. Consideran que por ello, no tiene mucho sentido investigar en chips adiabáticos, al menos en el ámbito clásico.

Eficiencia termodinámica de sistemas biológicos y artificiales

En este punto, es interesante señalar cómo los sistemas bioquímicos disipan mucha menos energía al eliminar información y operan mucho más cerca del límite fundamental que los chips de silicio sintéticos.

Por ejemplo, la eliminación de una base (2 bits) en una cadena de ARN requiere de la disolución de un enlace fosfodiéster y la emisión de unos 4,98×10-20 J de energía. En cambio, la conmutación de un circuito flip-flop (biestable) CMOS implica la emisión de unos 4,9×10−16 J, casi 10.000 veces más.

Probablemente, la principal causa de esta divergencia, es que la agregación de dos bits de información a una molécula de ARN requiere la formación de un solo enlace químico, mientras que la escritura o borrado de un bit de información en una celdilla de silicio necesita la movilización de un gigantesco número de cargas, del orden del número de Avogadro.

Biología y Tecnología en Neon

Figura 3. La superioridad termodinámica de los sistemas biológicos. Una bacteria E. Coli tiene una densidad computacional estimada del orden 1012-16 ops por segundo y centímetro cuadrado, superando con mucho a los chips de silicio fabricados con tecnología de 3 nm, cuya cifra se sitúa en torno a los 1012-13 ops. La bacteria, además, no se sobrecalienta, opera mucho más cerca del límite de Landauer y no necesita sistemas de refrigeración.

Si las bacterias y las células eucariotas tuvieran la misma eficiencia termodinámica que nuestros procesadores acabarían cociéndose en su propio citoplasma. Que no lo hagan es una muestra de la asombrosa adaptación evolutiva de los seres vivos, capaces de procesar información con un coste energético mínimo. Es, sin duda alguna, una lección que la naturaleza está dando a toda nuestra tecnología de semiconductores y al mismo tiempo una observación a todos los que desean crear sistemas de inteligencia artificial autorreplicantes. Este será un tema que se abordará en uno de nuestros próximos artículos.

Lecturas Recomendadas

SERIES