En mi artículo anterior, proporcioné una descripción de la información biológica y sus implicaciones para los argumentos del Diseño. Me sacrifiqué en los detalles técnicos para hacer que el contenido sea más accesible para los no expertos. Ahora, para proporcionar una comprensión más profunda de los fundamentos teóricos de los argumentos basados ​​en la información, profundizaré en las matemáticas subyacentes.

Medición de la complejidad especificada

Uno de los requisitos centrales de los argumentos del Diseño es evaluar la probabilidad de que surjan patrones a través de procesos no dirigidos. Los ejemplos de esquema de evaluación han incluido la complejidad irreducible de Behe, la complejidad algorítmica especificada (CAE) de Ewert et al., Y la información funcional de Hazen et al. En mi artículo anterior, me concentré en la última medida. Todos estos enfoques intentan cuantificar lo que se denomina complejidad especificada, que caracteriza los patrones complejos que contienen información significativa (es decir, especificada). Los diversos enfoques han sido generalizados por el informático George Montañez (ver aquí y aquí). Enumeró los pasos centrales para construir y evaluar cualquier medida de complejidad especificada:

  1. Determinar la distribución de probabilidad para los eventos observados en función de los mecanismos asumidos. En otras palabras, identificar para cada evento posible la probabilidad de que ocurra.
  2. Definir una función que asigne a cada evento un valor de especificidad.
  3. Calcular la complejidad canónica especificada para un resultado tomando el registro negativo (base 2) de la complejidad especificada kardis, que es la relación entre la probabilidad del evento y su valor de especificidad multiplicado por un factor de escala.
  4. Determinar la probabilidad de que ocurra un evento como resultado de cualquier mecanismo propuesto con la distribución de probabilidad supuesta. La probabilidad superior es igual a los kardis. Si la probabilidad es extremadamente pequeña, la afirmación de que el resultado ocurrió a través del mecanismo propuesto puede rechazarse con gran confianza.

Rareza Proteica

En el caso de las proteínas, el Paso 1 implica modelar las probabilidades para las secuencias de aminoácidos observadas bajo una distribución uniforme: se supone que cada secuencia es igualmente probable. Las secuencias no están realmente dispersas de manera uniforme, pero esta distribución sirve como una línea de base neutral contra la cual medir la dificultad de encontrar una secuencia funcional.

Además, una vez que la distribución uniforme se rechaza con una gran confianza como explicación, se puede usar la lógica del «requisito mínimo de plausibilidad» para determinar cuánto más cualquier otra explicación debe aumentar la probabilidad del resultado particular para evitar también el rechazo. El factor de impulso requerido proporciona una forma cuantitativa de evaluar la plausibilidad de los mecanismos evolutivos u otros mecanismos propuestos. Este método funciona incluso si no se puede calcular la distribución completa de los eventos, ya que solo se debe mostrar que un mecanismo propuesto debe aumentar la probabilidad del resultado en un factor de s, donde s es muy grande. A menos que se pueda demostrar que el mecanismo aumenta de manera plausible la probabilidad por ese factor, no se puede reclamar como una explicación suficiente.

Además, la distribución uniforme generalmente se supone si la distribución real no se puede conocer definitivamente, como lo dicta el Principio de razón insuficiente de Bernoulli (PrOIR).

… en ausencia de cualquier conocimiento previo, debemos suponer que los eventos [en un espacio de búsqueda] … tienen la misma probabilidad.

La motivación para esta elección es que la distribución uniforme es la menos sesgada basada en el teorema de no hay almuerzo gratis. En consecuencia, seleccionar otra distribución de probabilidad es tan probable que aumente los valores medidos o las probabilidades calculadas como que disminuya. Además, ninguna elección de distribución aumentará dramáticamente la probabilidad de que ocurran eventos altamente especificados a menos que esa distribución tenga información sobre esos eventos incorporada, según lo ordenado por el dictamen de Conservación de Información.

Más específicamente, las distribuciones favorables son raras para cada objetivo pequeño e incurren en su propio costo de información. Asumir una distribución que aumenta las probabilidades exactamente donde uno las necesita no es más justificable que asumir un resultado afortunado (Teorema 2 en Montañez 2017 y Teorema 6 en Montañez et al.2019). En otras palabras, seleccionar una distribución favorable del conjunto de todas las distribuciones posibles es un problema difícil, por lo que se necesita una explicación para una elección tan fortuita si se quiere asumir la falta de dirección en su selección.

Para el Paso 2, se puede elegir la función de especificidad de proteína para asignar el mismo valor a todas las secuencias de aminoácidos que se pliegan en estructuras que realizan alguna función biológica. Ese valor es inversamente proporcional al porcentaje de secuencias funcionales. Si el valor de especificidad es igual al exponencial de la complejidad condicional negativa de Kolmogorov, la complejidad canónica especificada se reduce a la complejidad algorítmica especificada (Montañez 2018, p. 9). La medida de complejidad resultante (Paso 3) adquiere un valor lo suficientemente alto como para rechazar cualquier posibilidad de que una secuencia elegida al azar se corresponda con una proteína funcional (Paso 4), lo que hace que la evolución no dirigida de muchas proteínas nuevas sea altamente inverosímil.

Información mutua

Otro concepto central en la teoría de la información es lo que se define como la información mutua entre dos variables aleatorias X1 y X2. Cada variable representa un conjunto de resultados de las mismas o diferentes probabilidades. La información mutua cuantifica en qué medida el conocimiento de una variable proporciona conocimiento o reduce la incertidumbre en la segunda variable.

Por ejemplo, cada variable podría representar la respuesta de un estudiante a dos preguntas de Verdadero / Falso en una prueba. Dado que cuatro resultados son igualmente probables (TT, TF, FT, FF), la información asociada con conocer las dos respuestas de un estudiante es un registro (base 2) de 4, que es de 2 bits. Si al menos un alumno adivinara al azar la respuesta para ambas preguntas, conocer las respuestas de un alumno no proporcionaría información sobre las del segundo alumno. Por el contrario, si un alumno copió ambas respuestas del otro, conocer las respuestas de un alumno proporciona información completa sobre las respuestas del segundo. La información mutua en el primer caso sería entonces 0 bits y en el último caso 2 bits. Si un alumno copia una respuesta pero adivina la otra, la información mutua sería de 1 bit. Cuanto más fuerte es la conexión entre las dos variables, mayor es la información mutua.

En mi artículo anterior, hice referencia a dos teoremas relacionados con la conservación de la información que desafían los supuestos evolutivos, y ambos se basan en información mutua. El espacio no me permitió desarrollar más el argumento, lo que habría requerido abordar distribuciones de probabilidad en lugar de secuencias individuales. Pero, la investigación en termodinámica biológica ha demostrado rigurosamente la centralidad de la información mutua en la comprensión de los sistemas biológicos, y las conclusiones refuerzan fuertemente los argumentos de diseño, particularmente en relación con el origen de la vida.

Información y reducción de entropía

El ingeniero químico y biomolecular Yaşar Demire ha demostrado que la reducción de la entropía en una célula requiere que la información mutua entre un sistema estático Y y un sistema dinámico X deba aumentar. El sistema Y representa las estructuras celulares que codifican los esquemas del sistema X, y el sistema X representa las estructuras biológicas codificadas, como las enzimas, las máquinas moleculares y las membranas celulares. El depósito de información más obvio en el sistema Y es el ADN, pero también se incluirían otras estructuras portadoras de información.

El aumento en la información mutua corresponde a la célula que procesa la información en Y para dirigir la construcción, ensamblaje e instalación de las nuevas estructuras. El ejemplo clásico es una secuencia genética que lidera la fabricación de una proteína. La proteína emergente representa la creación de información funcional que coincide con un aumento en la información mutua con la secuencia de ADN.

Demire designa la información que dirige el proceso como «información de control»

… «información de control» se define como la capacidad de controlar la adquisición, disposición y utilización de la materia, la energía y los flujos de información funcionalmente.

Él va más allá al afirmar que la producción de energía química junto con el procesamiento de la información es esencial para crear y mantener el estado de baja entropía de una célula:

La síntesis de ATP, a su vez, se corresponde y sincroniza con los procesos de utilización de ATP celular, ya que los flujos de energía y materia deben ser dirigidos por la información para que sean funcionales y tengan un propósito. Para los sistemas vivos, la información es la causa y la reducción de la entropía es el resultado:

Energía + Materia + Información → Entropía localmente reducida (Aumento de orden)

Reitera perfectamente el argumento central en mi reciente intercambio con Jeremy England de que la reducción de la entropía implicada en el origen de la vida requiere maquinaria e información de producción de energía preexistentes.

Imagen: De dónde provienen las proteínas, por Nicolle Rager, National Science Foundation / Public domain.

Artículo originalmente publicado en inglés por Brian Miller Ph.D.