Nota del editor: hemos estado revisando y explicando un nuevo artículo en la revista BIO-Complexity,A Unified Model of Complex Specified Information,”  [Un modelo unificado de información compleja especificada], por George D. Montañez. Para publicaciones anteriores, ver:

La complejidad especificada, la propiedad de ser poco probable y funcionalmente especificado, se introdujo en el debate de los orígenes hace dos décadas por William Dembski a través de su libro, The Design Inference. En él, desarrolló una teoría de detección de diseño basada en la observación de objetos que eran poco probables y que coincidían con un patrón dado de manera independiente, llamado especificación. Dembski continuó refinando su visión de complejidad específica, introduciendo variaciones de su modelo en publicaciones posteriores (Dembski 2001, 2002, 2005). El trabajo independiente de Dembski en complejidad especificada culminó con un modelo de complejidad semiótica especifica (Dembski 2005), donde la especificidad funcional se midió por la forma sucinta en que un agente que usa símbolos podría describir un objeto en el contexto de los patrones lingüísticos disponibles para el agente. Los objetos que eran complejos pero que podrían describirse simplemente dieron como resultado valores de complejidad altamente especificados.

Aunque el trabajo de Dembski sobre la complejidad especificada se convirtió en el más conocido, el especialista bioinformático Aleksandar Milosavljević parece haber desarrollado el primer modelo de complejidad especificada completamente matemático con su «método de significación algorítmica» (Milosavljević 1993, 1995). Milosavljević presentó su trabajo a principios de la década de 1990, que según los estándares de la tecnología, es una antigüedad. Su modelo de complejidad especificada utilizó la teoría de la información algorítmica para probar la independencia entre las secuencias de ADN en función de la improbabilidad de encontrar una secuencia bajo alguna distribución de probabilidad y la longitud de la codificación comprimida de la secuencia en relación con una segunda secuencia. Ewert, Marks y Dembski redescubrieron de forma independiente un método similar para medir la complejidad especificada (como suelen ser las grandes ideas) con su modelo algorítmico de complejidad especificada (Ewert, Dembski y Marks II 2012, 2015).

Dado el trabajo inicial de Milosavljević con significación algorítmica, los modelos matemáticos de complejidad especificada se han utilizado con éxito en campos fuera del diseño inteligente durante un cuarto de siglo. Un nuevo artículo, publicado en la revista de acceso abierto BIO-Complexity, apunta a impulsar el desarrollo de métodos de complejidad especificada mediante el desarrollo de una teoría matemática detallada de información compleja especificada.

Modelos unificados de complejidad especificada

En “Un modelo unificado de información de complejidad especificada”, George D. Montañez presenta un nuevo marco que reúne varios modelos de complejidad especificada luego de descubrir una identidad matemática compartida entre ellos. Esta identidad compartida, llamada «forma común», consta de tres componentes principales, combinados en lo que se denomina «función kardis». Los componentes son:

  1. Un termino de probabilidad, p(x),
  2. un termino de especificación, v(x), y
  3. una constante de escala, r.

Para un objeto x, el primero de estos da una idea de qué tan probable es que el objeto sea generado por algún proceso probabilístico modelado por p. Cuando este valor es bajo, el objeto no es uno y no suele ser generado por el proceso. El término de especificación, ν(x), captura en qué grado x se ajusta a una especificación dada independientemente, modelada como una función no negativa sobre el (típicamente restringido) espacio de objetos posibles. Cuando este valor es grande, el objeto se considera altamente especificado. Por último, la constante de escala r (también llamada «recursos de replicación») se puede interpretar como un factor de normalización para los valores de especificación (reescalando los valores a un rango pre-definido) o como el número de «intentos» que se dan al proceso probabilístico para generar el objeto en cuestión. (El artículo analiza en detalle ambas interpretaciones de la constante de escala.) Dados estos componentes, la función de kardis κ(x) se define como:


κ(x) = r [p(x) / ν(x)].

Tomando el registro negativo, base-2, de κ(x) se define la forma común para modelos de complejidad especificados.


Modelos de forma común

El artículo presenta la complejidad especificada semiótica de Dembski y la complejidad algorítmica especificada de Ewert et. al como modelos de forma común, asigna las partes de cada modelo a los componentes de kardis. Esta asignación también se realiza para modelos de complejidad adicionales especificados.

El modelo semiótico de Dembski contiene tres componentes centrales (un término de probabilidad P(T|H), término de especificación φS(T) y la constante de escala 10120), que se puede asignar a los componentes de kardis como p(x) = P(T|H), ν(x) = φS(T)-1 y r = 10120 Dembski define su complejidad especificada como


χ = -log2[10120φS(T)P(T|H)] = -log2κ(x),

Lo que vemos es un modelo de forma común con x = T.

De manera similar, la complejidad especifica algorítmica de Ewert et al. contiene un término de probabilidad p(x), un término de especificación ν (x) = 2K(x|c) y un término de escala implícito r = 1, lo que lo convierte en un modelo de forma común.

Por último, el modelo de significación algorítmica de Milosavljević también es de forma común, con un término de probabilidad que contiene kardis p0(x), término de especificación 2-IA(x|s), y la constante de escala implícita r = 1. A través de esta asignación, la conexión a la complejidad algorítmica especificada queda clara, y el estado del modelo como una forma de complejidad especificada se vuelve indiscutible.


El poder de una buena abstracción

¿Qué significa para los modelos de complejidad especificados existentes que todos compartan una única forma subyacente? Primero, nos permite razonar acerca de muchos modelos de complejidad especificados simultáneamente y probar teoremas colectivamente para ellos. Nos permite comprender mejor cada modelo, ya que podemos relacionarlo con otros modelos de complejidad especificados. Segundo, sugiere fuertemente que cualquier intento de resolver el problema de medir eventos anómalos convergerá en una solución similar, aumentando nuestra confianza en que la forma común representa la solución al problema. Tercero, podemos construir a partir de un marco simplificado, eliminando los detalles imprevistos para enfocarnos en el comportamiento de los modelos de complejidad especificados en su esencia central.

Finalmente, después de haber descubierto la parametrización de la forma común, podemos establecer que el modelo de significación algorítmica de Milosavljević no es solo semejante a un modelo de complejidad especificado, pero es, de hecho, un modelo de complejidad especificado, refutando definitivamente las afirmaciones de que los métodos de complejidad especificados no tienen valor práctico, son impracticables o no han sido utilizados en campos aplicados como el aprendizaje automático o la bioinformática. Ahora hemos llegado a descubrir que han estado en uso durante al menos 25 años. Milosavljević no pudo acceder al vocabulario de las formas comunes y los modelos canónicos, por lo que, al ver la diferencia entre un término sorpresa y su codificación relativa comprimida, ahora vemos más claramente como un modelo de complejidad especificada canónica basada en la compresión.


Símbolos en acero y piedra

Volviendo a su hipotético retiro de invierno, mencionado en el último post, los símbolos que descubrió permanecen en su mente. Una parte de los símbolos, los de las piezas metálicas, has sido capaz de asignar números codificados en un sistema numérico de base-7. Tu convicción se fortalece una vez que te das cuenta de que los números incluyen una secuencia de dígitos primos, que van del 2 al 31. Imaginas que un antiguo matemático grabó los símbolos en el metal, alguien que conocía los números primos o no, habría alguna probabilidad p(x) de que produjeran la secuencia x sin intención.

Dado que la secuencia también coincide con un patrón independiente (números primos), usted se pregunta, ¿cuántas secuencias que utilizan los primeros 31 enteros positivos coincidirán con cualquier patrón numérico reconocible, de los cuales los números primos son solo un ejemplo? La enciclopedia en línea de secuencias de números enteros tiene un estimado de 300,000 secuencias que podrían servir como un patrón (para alguien más informado que usted). Imagina que tal vez este número subestima el número de patrones interesantes, por lo tanto, lo duplicas para estar seguro, y se asumen 600,000 posibles patrones emparejables, de los cuales la secuencia principal es solo una instancia.

Usted ha pasado tiempo estudiando el manuscrito sobre la complejidad específica que trajo consigo, y está ansioso por comprender su descubrimiento a la luz del marco que presenta, el de la complejidad especificada canónica. Deje que el espacio de las posibles secuencias sean todas las 3111 secuencias de longitud 11 utilizando los primeros 31 enteros positivos. Deje que ν(x) sea igual a uno siempre que exista la secuencia x en el repositorio OEIS (que representa un patrón numérico «interesante»), y el límite superior r en 600,000, el número de patrones interesantes que podrían coincidir con las secuencias posibles. Sabes que estas son estimaciones aproximadas que, sin duda, deberán revisarse en el futuro, pero te gustaría tener una idea de cuán anómala es realmente la secuencia que has descubierto. Su instinto le dice «muy anómala», pero asignando sus cantidades a un modelo canónico, kardis le da el primer paso hacia un camino más objetivo, y mira el papel para ver qué puede inferir sobre el origen de su secuencia basado en su modelo. Tienes mucho trabajo por delante, pero después de muchas más horas de estudio y reflexión, la oscuridad de la noche te obliga a dejar de lado tu cuaderno de trabajo y descansar un poco.

Foto: Tu retiro de invierno, por Ian Keefe a través de Unsplash.

Bibliografía

Dembski, William A. 2001. “Detecting Design by Eliminating Chance: A Response to Robin Collins.” Christian Scholar’s Review 30 (3): 343–58.

———. 2002. No Free Lunch: Why Specified Complexity Cannot Be Purchased Without Intelligence. Lanham: Rowman & Littlefield.

———. 2005. “Specification: The Pattern That Signifies Intelligence.” Philosophia Christi 7 (2): 299–343. https://doi.org/10.5840/pc20057230.

Ewert, Winston, William A Dembski, and Robert J Marks II. 2012. “Algorithmic Specified Complexity.” Engineering and Metaphysicshttps://doi.org/10.33014/isbn.0975283863.7.

———. 2015. “Algorithmic Specified Complexity in the Game of Life.” IEEE Transactions on Systems, Man, and Cybernetics: Systems 45 (4): 584–94. https://doi.org/10.1109/TSMC.2014.2331917.

Milosavljević, Aleksandar. 1993. “Discovering Sequence Similarity by the Algorithmic Significance Method.” Proc Int Conf Intell Syst Mol Biol 1: 284–91.

———. 1995. “Discovering Dependencies via Algorithmic Mutual Information: A Case Study in DNA Sequence Comparisons.” Machine Learning 21 (1-2): 35–50. https://doi.org/10.1007/BF00993378.

Artículo publicado originalmente en inglés por Evolution News