Los ingenieros saben que no pueden eliminar la entropía al trabajar o realizar cálculos, pero están encontrando formas ingeniosas de minimizarla, como ocurre con la vida.
Primero, recordemos que la entropía es un coste inevitable de cualquier actividad útil. Los seres vivos luchan contra ella constantemente. Un artículo publicado en PNAS por Dominic J. Skinner y Jörn Dunkel explica:
Las leyes de la termodinámica imponen límites fundamentales a la eficiencia y la aptitud de los sistemas vivos. Para mantener el orden celular y realizar funciones biológicas esenciales como la detección, la señalización, la replicación o la locomoción, los organismos consumen energía y disipan calor. Al hacerlo, aumentan la entropía de su entorno, de acuerdo con la segunda ley de la termodinámica. [Énfasis añadido].
Incluso pensar aumenta la entropía, porque el cerebro, alimentado por patatas (como solía bromear A. E. Wilder-Smith), envía impulsos eléctricos y neurotransmisores a través de neuronas y sinapsis. Esto requiere trabajo (W = F*d: el trabajo es fuerza por distancia). El trabajo requiere energía; la energía necesariamente aumenta la entropía.
Los autores buscaron mejores maneras de medir la producción de entropía en los sistemas vivos. Si los ingenieros quieren maximizar la eficiencia de los sistemas diseñados, necesitan poder medirla. En la práctica, existen demasiadas variables ocultas incluso en una simple máquina molecular. Para abordar este desafío, introdujeron un nuevo enfoque para medir los límites de la producción de entropía y lo probaron en tres procesos moleculares:
Para superar estas limitaciones, presentamos un marco de optimización genérico que puede producir límites significativamente mejorados en la producción de entropía en sistemas vivos. Demostraremos que estos límites son óptimos dadas ciertas estadísticas medibles. Desde una perspectiva práctica, nuestro método requiere observaciones de solo unas pocas variables de estado macro-observables de una red markoviana que, de otro modo, estaría oculta. Demostramos su utilidad práctica determinando límites mejorados de producción de entropía para motores de flagelos bacterianos, microtúbulos en crecimiento y oscilaciones de calcio en células renales embrionarias humanas.
(En cuanto a las células renales embrionarias humanas, los autores utilizaron datos de Kevin Thurley et al., publicados en Science. Estos autores no especifican cómo obtuvieron las células).
Medir la entropía de la conmutación flagelar ayudará a los ingenieros, afirman, recordando las asombrosas capacidades de estos íconos del Diseño Inteligente:
Mediante la rotación de flagelos helicoidales, muchas especies de bacterias pueden nadar, alcanzando velocidades de decenas de veces la longitud de su cuerpo por segundo. Cada flagelo es impulsado por un extraordinario motor a escala nanométrica, alimentado por un flujo de iones a través de la membrana citoplasmática, que puede alcanzar más de 100 rotaciones por segundo. Medir la producción de entropía del motor promete comprender mejor la eficiencia de los pequeños motores autoensamblados y la locomoción microbiana.
Los autores no especificaron la eficiencia de las oscilaciones del flagelo, los microtúbulos ni las células renales; su objetivo era definir un estimador de macro-estado, independiente del modelo, que pudiera utilizarse para inferir los costos termodinámicos adicionales de la regulación de las fluctuaciones moleculares mediante la cuantificación de las compensaciones entrópicas que las células se ven obligadas a realizar. Y, efectivamente, están obligados:
Los costos entrópicos limitan la precisión de los sistemas sensoriales biológicos, los relojes biológicos y la supresión del ruido intrínseco en las células. Más allá de las aplicaciones directas a los datos experimentales, el marco actual puede ayudarnos a comprender y cuantificar las compensaciones entre la ejecución fiel de una función biológica y la energía invertida para lograrla.
Reinventando la computación
El Instituto Nacional de Estándares y Tecnología (NIST) también intenta minimizar los costos entrópicos. Anunció «Lógica de Carrera: Circuitos novedosos resuelven una miríada de problemas computacionalmente intensivos con un mínimo de energía». Es decir, una carrera a pie. Los organismos se enfrentan a este tipo de deporte constantemente.
Desde el patrón ramificado de las venas de las hojas hasta la variedad de vías interconectadas que propagan el coronavirus, la naturaleza prospera gracias a las redes: redes que conectan los diferentes componentes de sistemas complejos. Las redes subyacen en problemas de la vida real como determinar la ruta más eficiente para que una empresa de transporte entregue medicamentos vitales y calcular el menor número de mutaciones necesarias para transformar una cadena de ADN en otra.
Para reducir los costos energéticos de resolver estos complejos problemas, tres científicos del NIST eliminaron los bits (0 y 1) y rediseñaron la computación en términos de marcas de tiempo. Pasar los bits de 0 a 1 y viceversa consume mucha energía, afirman.
En contraste, la lógica de carrera codifica y procesa la información representándola como señales de tiempo: el momento en que un grupo específico de bits de la computadora pasa de 0 a 1. Un gran número de cambios de bits es la causa principal del alto consumo de energía en las computadoras estándar. En este sentido, la lógica de carrera ofrece una ventaja, ya que las señales codificadas en tiempo solo implican unos pocos cambios de bits cuidadosamente orquestados para procesar la información, lo que requiere mucha menos energía que las señales codificadas como 0 o 1.
El artículo incluye diagramas que muestran cómo el método podría resolver problemas antiguos, como encontrar las rutas más eficientes para que los camiones entreguen paquetes. Aunque los científicos no lo mencionan explícitamente, esta parece ser la lógica subyacente a algunos procesos celulares, como la regulación de las concentraciones enzimáticas. En PNAS, Surajit Chatterjee et al. introducen el concepto de que la transcripción y la traducción están estrechamente acopladas. Dado que estos procesos implican codificación temporal, se aplicaría una «lógica de carrera» energéticamente eficiente. En sus comentarios sobre este artículo, también en PNAS, Michael W. Webster y Albert Weixlbaumer escriben:
Dos procesos conservados expresan la información genética de todos los organismos. En primer lugar, el ADN se transcribe en un ARN mensajero (ARNm) mediante la enzima multisubunidad ARN polimerasa (ARNP). En segundo lugar, el ARNm dirige la síntesis de proteínas, cuando el ribosoma traduce su secuencia de nucleótidos a aminoácidos utilizando el código genético. Debido a la importancia fundamental de estos dos procesos, se han desarrollado numerosos procesos reguladores para regularlos. La mayoría de los ejemplos implican la regulación de la transcripción o la traducción. En PNAS, Chatterjee et al., en cambio, describen un proceso regulador complejo e intrincado en el que la transcripción y la traducción se regulan simultáneamente.
Un ejemplo que ofrecen son las pausas de consenso impulsadas termodinámicamente durante la transcripción. Es realmente notable que las células hayan desarrollado una regulación basada en la lógica de carrera, mientras los mejores científicos del NIST aún intentan descifrarlo.
Optimización de la aleatoriedad
Bajo un microscopio, los objetos diminutos parecen oscilar aleatoriamente, un fenómeno llamado movimiento browniano, debido a la dinámica térmica de los átomos circundantes. ¿Qué pasaría si cada impulso ascendente pudiera almacenarse y utilizarse para impulsar otra partícula en una dirección uniforme? Actuaría como un trinquete que, en efecto, almacena información gratuitamente en forma de energía potencial gravitatoria. Ingenieros de la Universidad Simon Fraser en Columbia Británica presumen de haber construido el «motor de información más rápido del mundo» utilizando esta técnica. La SFU afirma que su trabajo «podría conducir a avances significativos en la velocidad y el costo de las computadoras y las bionanotecnologías», es decir, combatir la entropía con el diseño.
John Bechhoefer, profesor de física de la SFU y autor principal del estudio, afirma que la comprensión de los investigadores sobre cómo convertir la información en «trabajo» de forma rápida y eficiente podría orientar el diseño y la creación de motores de información del mundo real.
«Queríamos descubrir la velocidad de un motor de información y cuánta energía puede extraer, así que creamos uno», explica Bechhoefer, cuyo grupo experimental colaboró con teóricos dirigidos por David Sivak, profesor de física de la SFU.
Su creación, que ha impulsado la técnica diez veces más que las implementaciones anteriores, es la «mejor en su clase» en el campo del diseño de motores basados en información, un concepto que se remonta a 150 años atrás. Solo recientemente ha sido posible llevar la teoría a la práctica. El artículo describe cómo lo lograron. Y luego viene la conclusión en la última frase:
«Guiados por este conocimiento, elegimos la masa de las partículas y otras propiedades del motor para maximizar la velocidad con la que el motor extrae energía, superando los diseños anteriores y logrando una potencia comparable a la maquinaria molecular de las células vivas y velocidades comparables a las de las bacterias que nadan rápidamente», dice el investigador postdoctoral Jannik Ehrich.
Consideremos lo siguiente: las mentes más brillantes de la ciencia y la ingeniería intentan aproximarse a las capacidades de las bacterias. Esto podría sugerir algunas ideas sobre el origen del objetivo que intentan alcanzar.
Crédito de la imagen: por Mariana Ruiz Villarreal LadyofHats – Trabajo propio, Dominio público,
Artículo publicado originalmente en inglés por Evolution News & Science Today