Recientemente criticamos una propuesta de Eugene V. Koonin y tres colegas que presentaron una teoría ampliada de la evolución como «aprendizaje multinivel». (Véase, “La evolución no es como la física”.) La propuesta comete la falacia de equiparar las propiedades de las “leyes de la evolución” biológicas con las de la física, y bordea con el vitalismo, lo que socava su objetivo de naturalizar la evolución. La propuesta se publicó en dos artículos en PNAS el mes pasado. En esta ocasión, nos fijamos en el segundo artículo que lleva su propuesta al caso especial del origen de la vida. Su intento de incorporar la termodinámica en un proceso altamente neguentrópico seguramente despertará interés.

De Vanchurin, Wolf, Koonin y Katsnelson, “Termodinámica de la evolución y el origen de la vida”:

Empleamos el aparato conceptual de la termodinámica para desarrollar una teoría fenomenológica de la evolución y del origen de la vida que incorpora procesos evolutivos tanto de equilibrio como de no equilibrio dentro de un marco matemático de la teoría del aprendizaje. Se traza la triple correspondencia entre las cantidades fundamentales de la termodinámica, la teoría del aprendizaje y la teoría de la evolución. Según esta teoría, las principales transiciones en la evolución, incluido el origen de la vida, representan tipos específicos de transiciones de fase física. [Énfasis añadido.]

¿Cómo puede aprender la naturaleza?

Los lectores perspicaces querrán saber cómo lidian con varios problemas bien conocidos: (1) probabilidad, (2) aumento de entropía y (3) subproductos dañinos. Los autores ya han presentado su visión del universo como una «red neuronal» en la que la selección natural opera en múltiples niveles, no solo en biología. Las únicas redes neuronales que cualquier ser humano ha observado nacer fueron diseñadas por una mente. ¿Cómo, entonces, puede la naturaleza física aprender cosas?

Bajo esta perspectiva, todos los sistemas que evolucionan en complejidad, desde átomos hasta moléculas, organismos y galaxias, aprenden a predecir cambios en su entorno con una precisión cada vez mayor, y aquellos que tienen éxito en tal predicción son seleccionados por su estabilidad, capacidad de persistencia y, en consecuencia se para propagan. Durante esta dinámica, los sistemas de aprendizaje que desarrollan múltiples niveles de variables entrenables que difieren sustancialmente en sus tasas de cambio superan a los que no tienen esa separación de escala.

Las tendencias vitalistas de esta propuesta se hacen evidentes cuando afirman que las entidades no vivas son capaces de predecir, entrenar y competir. Son más evidentes cuando el entorno puede seleccionarlos de acuerdo con criterios específicos. ¿Cómo saben Koonin y sus colegas que esto sucede? Solo mire a su alrededor: hay átomos, estrellas y cerebros que sobrevivieron a la competencia por selección natural. Su existencia confirma la teoría. Esto es como el partidario del principio antrópico que dice: “Si el universo no fuera así, no estaríamos aquí para hablar de ello”.

Para lidiar con el problema de la entropía, los autores dicen que el aprendizaje disminuye la entropía. Agregan una segunda variable Q a la ecuación de entropía que les permite superar el problema. «Q es la fuerza de aprendizaje/generalizada para las variables entrenables/externas q».

En el contexto de la evolución, el primer término en Eq. 3.1 representa los aspectos estocásticos de la dinámica, mientras que el segundo término representa la adaptación (aprendizaje, trabajo). Si el estado de todo el sistema de aprendizaje es tal que la dinámica de aprendizaje es subdominante a la dinámica estocástica, entonces la entropía total aumentará (como es el caso en los sistemas físicos cerrados regulares, bajo la segunda ley de la termodinámica), pero si el aprendizaje domina, entonces la entropía disminuirá como es el caso en los sistemas de aprendizaje, bajo la segunda ley del aprendizaje: La entropía total de un sistema termodinámico no disminuye y permanece constante en el equilibrio termodinámico, pero la entropía total de un sistema de aprendizaje no aumenta y permanece constante en el equilibrio de aprendizaje.

Muy ingenioso; introducir una variable mágica que permita a la teoría evitar las consecuencias de la segunda ley. La entropía aumenta en general (lo que debe suceder), pero puede estabilizarse o disminuir localmente en un sistema en evolución, como un pequeño estanque cálido.

El principio de máxima entropía establece que la distribución de probabilidad en un gran conjunto de variables debe ser tal que la entropía de Shannon (o Boltzmann) se maximice sujeta a las restricciones pertinentes. Este principio es aplicable a una variedad extremadamente amplia de procesos, pero como se muestra a continuación es insuficiente para una descripción adecuada del aprendizaje y la dinámica evolutiva y debe combinarse con el principio opuesto de minimización de la entropía debido al proceso de aprendizaje, o la segunda ley de aprendizaje (ver Termodinámica del aprendizaje y ref. 17). Nuestra presentación en esta sección podría parecer demasiado simplificada, pero consideramos que este enfoque es esencial para formular de la manera más explícita y general posible todos los supuestos básicos que subyacen a la termodinámica del aprendizaje y la evolución.

Súplica especial con saludo de mano

Si esto suena como una súplica especial con el gesto de la mano, observe cómo dan un giro equivocado antes de esto al atribuir propiedades vitalistas a la materia:

El paso crucial en el tratamiento de la evolución como aprendizaje es la separación de las variables en entrenables y no entrenables. Las variables entrenables están sujetas a evolución por selección natural y, por tanto, deben estar relacionadas, directa o indirectamente, con los procesos de replicación, mientras que las variables no entrenables caracterizan inicialmente el entorno, que determina los criterios de selección.

Suponga un proceso de replicación. Es como un abrelatas. Les permite visualizar un sinfín de cosas más hermosas saliendo de la lata si tuvieran el abridor. Teóricamente, las variables entrenables q superan la entropía creciente generada por las variables no entrenables x si la distribución de probabilidad p(x|q) favorece a q. “Postulamos que un sistema bajo consideración obedece el principio de máxima entropía pero también está aprendiendo o evolucionando al minimizar la función de pérdida promedio U(q)”, dicen. La selección natural, o el aprendizaje, hace eso. Por lo tanto, la vida puede surgir naturalmente.

¿Convencido? Obtienen sus conclusiones con algunos cálculos rápidos, pero claramente si se inserta una variable mágica q, la derivación se vuelve poco confiable incluso si las operaciones son sólidas. Por ejemplo, si define q como “ocurre un milagro”, entonces, por supuesto, puede probar que la vida es una propiedad emergente de la materia. En ese punto, subdefiniciones adicionales de q en diferentes categorías de milagros no logran proporcionar modelos convincentes de la realidad. Míralos definir el aprendizaje como una disminución de la entropía:

Si la producción de entropía estocástica y la disminución de entropía debido al aprendizaje se anulan entre sí, entonces la entropía general del sistema permanece constante y el sistema se encuentra en el estado de equilibrio de aprendizaje… Esta segunda ley, cuando se aplica a los procesos biológicos, especifica y formaliza la idea de Schrödinger de la vida como un fenómeno “neguentrópico”. De hecho, el aprendizaje del equilibrio es el estado estacionario fundamental de los sistemas biológicos. Debe enfatizarse que los sistemas en evolución que examinamos aquí están abiertos dentro del contexto de la termodinámica clásica, pero se convierten en sistemas cerrados que alcanzan el equilibrio cuando la termodinámica del aprendizaje se incorpora al modelo.

Se ven más movimientos manuales en su definición de «temperatura evolutiva» como «estocasticidad en el proceso evolutivo» y «potencial evolutivo» como «una medida de adaptabilidad». ¿Alguien realmente quiere continuar escuchándolos comparar una población de organismos con un gas ideal?

El origen de la vida se puede identificar con una transición de fase de un gas ideal de moléculas que a menudo se considera en el análisis de sistemas físicos a un gas ideal de organismos que se analiza en la sección anterior.

Un cameo de Malthus

La realidad dejó la estación hace mucho tiempo. Malthus hace un cameo: “Bajo la descripción estadística de la evolución, la aptitud malthusiana se define naturalmente como el exponente negativo de la función de pérdida promedio, estableciendo la conexión directa entre los procesos de evolución y aprendizaje”. El aprendizaje resuelve todos los problemas de la evolución: ¡incluso la termodinámica! Retocando a Dobzhansky, dicen: “[n]ada en el mundo es comprensible excepto a la luz del aprendizaje”.

La idea clave de nuestra construcción teórica es la interacción entre el aumento de entropía en el entorno dictado por la segunda ley de la termodinámica y la disminución de entropía en los sistemas en evolución (como organismos o poblaciones) dictada por la segunda ley del aprendizaje.

¿Qué es esta “segunda ley del aprendizaje”? Es la idea de Vanchurin que las variables se pueden definir como aquellas que «ajustan sus valores para minimizar la entropía». ¡Ocurre un milagro! Las mentes pueden hacer esto; pero ¿la materia? Por supuesto. Tiene que suceder.

El escenario del origen de la vida dentro del marco global de la presente teoría de la evolución, incluso si se formula en los términos más generales, implica que el surgimiento de una complejidad acorde con la vida es una tendencia general en la evolución de los sistemas complejos. A primera vista, esta conclusión podría parecer contradictoria con la magnitud de la complejidad involucrada en el origen de la vida [basta con considerar la complejidad del sistema de traducción] y la singularidad de este evento, al menos en la Tierra y probablemente, en una escala cósmica mucho mayor. Sin embargo, el origen de la vida parece ser un resultado esperado del aprendizaje sujeto a las limitaciones pertinentes, como la presencia de las sustancias químicas requeridas en concentraciones suficientes. Tales restricciones harían de la vida un fenómeno raro pero probablemente lejos de ser único en la escala del universo. A veces se afirma que el universo está ajustado para la existencia de la vida. Lo que postulamos aquí es que el universo está autoajustado para el surgimiento de la vida.

Estamos aquí, ¿no?

Los colegas de Koonin nunca logran resolver las extremas improbabilidades de obtener los componentes básicos más simples de la vida por casualidad. Nunca discuten las reacciones cruzadas dañinas, que seguramente ocurrirán debido a las leyes químicas conocidas. Y descartan el problema de la entropía insertando variables mágicas que definen como sistemas que “ajustan sus valores para minimizar la entropía”. ¡Estos sistemas también poseen mágicamente recuerdos! Como ellos saben eso? Bueno, las redes neuronales los tienen, y la vida los tiene. Los genes deben haber evolucionado para ser los portadores de la memoria a largo plazo. Después de todo, estamos aquí, ¿no?

Evidentemente, el análisis presentado aquí y en el documento adjunto es solo un esbozo de una teoría de la evolución como aprendizaje. Los detalles y las implicaciones, incluidos los directamente comprobables, quedan por resolver.

De hecho.

Artículo publicado originalmente en inglés por Evolution News & Science Today