Una cartilla de información

Un pionero en el campo de la teoría de la información fue Claude Shannon⁠, quien relacionó el concepto de información con la reducción de la incertidumbre y la probabilidad. Como ejemplo, conocer el código postal de cinco dígitos para una dirección elimina la incertidumbre sobre la ubicación de un edificio. Y, la extensión de cuatro dígitos del código postal proporciona información adicional que reduce aún más la incertidumbre. Por el contrario, generar aleatoriamente el código postal correcto de cinco dígitos corresponde a una probabilidad de 1 en 100,000, mientras que generar el código postal correcto de nueve dígitos corresponde a una probabilidad de 1 en mil millones. Esto último es mucho menos probable, por lo que el código de nueve dígitos contiene más información.

Shannon cuantificó la cantidad de información en un patrón en lo que definió como la medida de información de Shannon. En el caso más simple, la cantidad es proporcional al logaritmo de 1 / p, donde p es la probabilidad de que ocurra un patrón por casualidad. Para el código de cinco dígitos, p sería 1 / 100,000 y 1 / p sería 100.000 Esta medida puede considerarse como el número mínimo de respuestas a las preguntas Sí-No que serían necesarias para identificar 1 de las N opciones. Para ilustrar, imagine intentar identificar a un actor famoso preseleccionado de entre ocho personas posibles. Si la respuesta a cada pregunta sobre el individuo misterioso eliminara la mitad de las opciones, la respuesta correcta podría determinarse con tres preguntas. Por lo tanto, aprender la respuesta corresponde a adquirir 3 bits de información. Tenga en cuenta que 2 a la potencia de 3 es 8, o por el contrario, log (base 2) de 8 es 3.

Información y biología

La teoría de la información ha sido aplicada a la biología por figuras como Hubert Yockey. En este contexto, la definición de Shannon tuvo que modificarse para distinguir entre patrones arbitrarios y aquellos que realizaban alguna función. La medida de Shannon se modificó para cuantificar la «información funcional». La medida de la información funcional corresponde a la probabilidad de que un patrón aleatorio logre algún objetivo. Por ejemplo, si 1 de cada 1024 secuencias de aminoácidos formara una estructura que acelera una reacción específica, la información funcional asociada con esa secuencia equivaldría a 10 bits, ya que se tendrían que hacer 10 preguntas Sí-No para seleccionar 1 entidad de 1024 posibilidades . Matemáticamente, 2 a la potencia de 10 es 1024, o log (base 2) de 1024 es 10. Se han desarrollado medidas más avanzadas para la información funcional, incluida la complejidad algorítmica especificada y la complejidad canónica especificada más generalizada. Siguen la misma lógica básica. Estas medidas ayudan a relacionar el contenido de información de las moléculas y estructuras biológicas con sus capacidades funcionales.

Información y proteínas

El contenido de información de la secuencia de aminoácidos de una proteína se relaciona directamente con su capacidad para controlar reacciones químicas u otros procesos. En general, cuanto mayor es el contenido de la información, mayor es el nivel de control sobre los resultados y mayor es la capacidad de elaborar manipulaciones moleculares. Para las secuencias de aminoácidos con mayor contenido de información se especifican más, por lo que pueden plegarse en formas tridimensionales de mayor precisión y complejidad. A su vez, el requisito de mayor especificidad corresponde a que las proteínas sean más susceptibles a las mutaciones; unos pocos cambios de aminoácidos a menudo las desactivarán por completo. En consecuencia, las secuencias funcionales son menos probables, lo cual es otra firma de mayor contenido de información. Esta conexión entre la información, la rareza de la secuencia y la complejidad de la función tiene profundas implicaciones para la investigación de proteínas de Doug Axe.

Axe demostró que la probabilidad de que una secuencia de aminoácidos aleatoria se pliegue en una sección (dominio) de una proteína β-lactamasa funcional es demasiado pequeña para que ocurra por casualidad. Por lo tanto, el contenido de la información es demasiado grande para originarse a través de una búsqueda aleatoria. Sin embargo, la β-lactamasa realiza la tarea relativamente simple de romper una molécula de antibiótico. En contraste, muchas de las proteínas requeridas para el origen de la vida realizan operaciones mucho más complejas. Lo mismo es válido para muchas proteínas requeridas en la construcción de nuevos grupos de organismos (por ejemplo, filamentos animales). Por lo tanto, el contenido de información de estas proteínas debe ser aún mayor. Entonces, la probabilidad de que se originen a través de una búsqueda aleatoria es aún menor.

Información y diseño

Esta conclusión es profundamente problemática para la teoría evolutiva ya que ningún proceso natural puede generar cantidades de información sustancialmente mayores que las que podrían resultar de una búsqueda aleatoria. La limitación resulta de los teoremas de No Free Lunch como lo demuestra la investigación de Robert J. Marks, Winston Ewert y William Dembski. Está respaldado por teoremas derivados de la investigación en ciencias de la computación. Por ejemplo, el informático Leonid Levin demostró la «conservación de la independencia» en los sistemas portadores de información. Él dijo lo siguiente:

La información I (x: y) tiene una notable invariancia; no se puede aumentar mediante el procesamiento aleatorio o determinista (recursivo) de x o y. Esto es natural, ya que si x no contiene información sobre y, entonces hay pocas esperanzas de descubrir algo sobre y procesando x. (¡Torturar a un testigo desinformado no puede dar información sobre el crimen!)

La ley de conservación simplemente significa que la información, I (x: y), presente en un sistema, x, que coincide con otro, y, no puede aumentar a través de ningún proceso natural. Una conclusión casi idéntica proviene de la teoría de la información en lo que se conoce como desigualdad en el procesamiento de datos. Establece que el contenido de información de una señal no puede aumentarse mediante ninguna operación física local.

En términos de evolución, el primer sistema (la señal) podría ser un gen duplicado o una sección no funcional de ADN que muta libremente, y el segundo podría ser cualquier secuencia de proteína funcional en la que el gen / sección podría evolucionar potencialmente. Los teoremas exigen que una secuencia de ADN (x) nunca podría aumentar apreciablemente la información funcional, como si se asemejara más a una nueva enzima (y). Esta restricción hace que la evolución de la mayoría de las nuevas proteínas sea completamente inverosímil.

En el video, Stephen Meyer explica cómo la información apunta al diseño inteligente por la misma lógica utilizada en las ciencias históricas. Además, la maquinaria de procesamiento de información de la vida demuestra evidencia inequívoca de previsión, coordinación y dirección de objetivos. Y, estas firmas apuntan inequívocamente a una causa inteligente. Los mismos argumentos son válidos en un grado aún mayor para el origen de la vida. La única pregunta apremiante es; hasta qué punto los críticos pueden continuar permitiendo que su sesgo filosófico anule las claras implicaciones de diseño en la información biológica.

Imagen: Una escena de «The Information Enigma», a través de Discovery Institute.

Artículo publicado originalmente en inglés por Brian Miller Ph.D.