En 1998, moderé una discusión en la que Ray Kurzweil dio a los oyentes un adelanto de su libro de próxima publicación The Age of Spiritual Machines, en el que describió cómo las máquinas estaban preparadas para igualar y luego superar la cognición humana, un tema que dobló en libros posteriores (como The Singularity Is Near y How to Create a Mind). Para Kurzweil, es inevitable que las máquinas nos igualen y luego nos superen: la Ley de Moore garantiza que las máquinas alcanzarán la potencia computacional necesaria para simular nuestros cerebros, después de lo cual el desafío será para nosotros mantener el ritmo de las máquinas.

Los encuestados de Kurzweil en la discusión fueron John Searle, Thomas Ray y Michael Denton, y todos criticaron en diversos grados su fuerte visión de la IA. Searle recicló su experimento mental Chinese Room para argumentar que las computadoras en realidad no pueden entender nada. Denton hizo un interesante argumento sobre la complejidad y riqueza de las neuronas individuales y cuán inadecuada es nuestra comprensión de ellas y cuán aún más inadecuada es nuestra capacidad para modelarlas computacionalmente de manera realista. Sin embargo, al final de la discusión, la arrogante confianza de Kurzweil en las brillantes perspectivas de un futuro de IA fuerte no disminuyó. Y, de hecho, no han disminuido hasta el día de hoy (vi a Kurzweil por última vez en una conferencia tecnológica de Seattle en 2019; la edad parecía haber suavizado su persona, pero no sus puntos de vista).

El libro The Myth of Artificial Intelligence  de Erik Larson (publicado por Harvard / Belknap) es de lejos la mejor refutación de las promesas exageradas de Kurzweil, pero también de la exageración que presionan aquellos que se han enamorado de la última encarnación de la IA, que es la combinación de big data con aprendizaje automático. Para ser claros, Larson no se opone. No tiene deseos de morir por la IA. No está tratando de sabotear la investigación en el área (en todo caso, está tratando de sacar la investigación de IA de la tierra de fantasía que habita actualmente). De hecho, ha sido un colaborador sólido en el campo, llegando al problema de la IA fuerte, o inteligencia artificial general (IAG) como él prefiere llamarla, con la mente abierta sobre sus posibilidades.

Llaves bajo un poste de luz

El problema, tal como lo ve con el campo, está plasmado en la parábola del borracho buscando llaves bajo un poste de luz aunque las dejó caer lejos porque ahí es donde está la luz. En el espíritu de esta parábola, Larson presenta un caso convincente de que la investigación real sobre IA se está llevando a cabo en aquellas áreas donde las claves de la inteligencia artificial general simplemente no pueden existir. Pero él sigue la parábola incluso mejor: debido a que no existe una teoría de lo que significa que una máquina tenga una vida cognitiva, sugiere que no está claro que la inteligencia artificial general tenga siquiera una solución: la inteligencia humana puede que al final no sea reducible a inteligencia de la máquina. En consecuencia, si hay llaves para desbloquear IAG, las estamos buscando en los lugares equivocados; e incluso puede ser que no existan tales llaves.

Larson no sostiene que la inteligencia artificial general sea imposible, sino que no tenemos motivos para pensar que debe ser así. Por lo tanto, está desafiando directamente la narrativa de inevitabilidad promovida por personas como Ray Kurzweil, Nick Bostrom y Elon Musk. Al mismo tiempo, Larson deja la IAG como una posibilidad real a lo largo del libro, y parece genuinamente curioso por escuchar a alguien que pueda tener buenas ideas sobre cómo proceder. Su punto central, sin embargo, es que, por ahora, faltan por completo esas buenas ideas: que la investigación sobre la IA produce resultados solo cuando trabaja en problemas estrechos y que esta investigación ni siquiera está raspando la superficie de los tipos de problemas que deben resolverse con el fin de crear una inteligencia artificial general. El caso de Larson es devastador [Para los optimistas de un futuro robotizado totalmente] y utilizo este adjetivo sin exagerar.

He seguido el campo de la IA durante cuatro décadas. De hecho, recibí una beca de posgrado de la NSF a principios de la década de 1980 para comenzar a construir un sistema experto para hacer estadísticas (mi asesor fue Leland Wilkinson, fundador de SYSTAT, e incluso trabajé para su empresa en el verano de 1987, desafortunadamente , la integración de LISP, el principal lenguaje de inteligencia artificial en ese entonces, con el código Fortran que subyacía a su paquete estadístico SYSTAT resultó ser un problema insoluble en ese momento). Fui testigo en tiempo real del cambio de la IA basada en reglas (común con los sistemas expertos) al enfoque de inteligencia computacional de la IA (computación evolutiva, conjuntos difusos y redes neuronales) a lo que ahora se ha convertido en big data y aprendizaje profundo / automático. Vi que el enfoque basado en reglas para la IA se desvanecía. Vi que la investigación en inteligencia computacional, como la realizada por mi colega Robert J. Marks II, producía soluciones interesantes a problemas bien definidos, pero sin pretensiones de crear mentes artificiales que competirían con las mentes humanas. Y luego vi despegar el enfoque de aprendizaje automático, con sus enormes ganancias para la gran tecnología y la arrogancia resultante de pensar que las tecnologías creadas para ganar dinero también podrían recrear a los inventores de esas tecnologías.

Un filósofo y programador

Larson llega a este proyecto con una formación como filósofo y como programador, una combinación que encuentro refrescante en el sentido de que su formación filosófica lo hace reflexivo y mesurado al considerar las afirmaciones infladas hechas para la inteligencia artificial general (como la promesa descarada, continuamente hecha , que está justo a la vuelta de la esquina, ¿hay alguna diferencia con la Sociedad Watchtower y sus repetidas profecías fallidas sobre la Segunda Venida?). También me parece refrescante que Larson tenga una inclinación humanista y literaria, lo que significa que no va a poner el listón artificialmente bajo para lo que puede constituir una inteligencia artificial general.

El matemático George Polya solía bromear que si no puede resolver un problema determinado, busque un problema más fácil que pueda resolver. Este puede ser un buen consejo si el problema más fácil que puede resolver ilumina de manera significativa el problema más difícil (idealmente, ayudándolo a resolver el problema más difícil). Pero Larson descubre que la comunidad de IA utiliza cada vez más este consejo para sustituir problemas simples por problemas realmente difíciles a los que se enfrenta la inteligencia artificial general, evitando así el arduo trabajo que se debe realizar para lograr un progreso genuino. Entonces, para Larson, los programas de ajedrez de clase mundial, Go y Jeopardy son impresionantes hasta donde llegan, pero no prueban nada sobre si las computadoras pueden lograr IAG.

Larson presenta dos argumentos principales de por qué no deberíamos pensar que estamos cerca de resolver el problema de IAG. Su primer argumento se centra en la naturaleza de la inferencia, el segundo en la naturaleza del lenguaje humano. Con respecto a la inferencia, muestra que una forma de razonamiento conocida como inferencia abductiva, o inferencia a la mejor explicación, no tiene por ahora ninguna representación o implementación computacional adecuada. Sin duda, los científicos informáticos son conscientes de su necesidad de acorralar la inferencia abductiva si quieren tener éxito en producir una inteligencia general artificial. Es cierto que han hecho algunas puñaladas, pero esas puñaladas provienen de formar un híbrido de inferencia deductiva e inductiva. Sin embargo, como muestra Larson, el problema es que ni la deducción, ni la inducción, ni su combinación son adecuadas para reconstruir la abducción. La inferencia abductiva requiere identificar hipótesis que expliquen ciertos hechos de situaciones que necesitan explicación. El problema con tal razonamiento hipotético o conjetural es que ese rango de hipótesis es virtualmente infinito. La inteligencia humana puede, de alguna manera, examinar estas hipótesis e identificar aquellas que son relevantes. El punto de Larson, y uno que él establece de manera convincente, es que no tenemos ni idea de cómo hacer esto computacionalmente.

El problema del lenguaje humano

Su otro argumento de por qué una inteligencia artificial general no está ni cerca del despegue se refiere al lenguaje humano. Nuestra capacidad para usar el lenguaje humano es solo en parte una cuestión de sintáctica (cómo pueden encajar las letras y las palabras). También depende de la semántica (lo que significan las palabras, no solo individualmente, sino también en contexto, y cómo las palabras pueden cambiar de significado según el contexto), así como de la pragmática (cuál es la intención del hablante al influir en el oyente mediante el uso del idioma). Larson sostiene que, por ahora, no tenemos forma de representar computacionalmente el conocimiento del que dependen la semántica y la pragmática del lenguaje. Como consecuencia, los acertijos lingüísticos que son fácilmente comprensibles por los humanos y que fueron identificados hace más de cincuenta años como más allá de la comprensión de las computadoras aún están más allá de su capacidad de comprensión. Así, por ejemplo, los esquemas de Winograd de una sola oración, en los que un pronombre podría referirse a uno de dos antecedentes, y donde el antecedente correcto es fácilmente identificado por los humanos, siguen siendo hasta el día de hoy opacos para las máquinas; las máquinas no hacen mejor que el azar para adivinar los antecedentes correctos. Esa es una de las razones por las que Siri y Alexa son tan malos compañeros de conversación.

El mito de la inteligencia artificial no solo es perspicaz y oportuno, sino que también es divertido. Larson, con un conocimiento interno, describe cómo se hace la salchicha de la IA, y no es bonito, incluso puede ser ridículo. Larson vuelve a contar con divertida ironía la historia de Eugene Goostman, el chatbot ucraniano de 13 años, quien / que a través del sarcasmo y la mala dirección convenció a un tercio de los jueces en una prueba de Turing, en una interacción de cinco minutos, de que se trataba de un ser humano real. No, argumenta Larson, Goostman no pasó legítimamente la prueba de Turing y las computadoras todavía están lejos de aprobarla, especialmente si las personas y las computadoras necesitan responder en lugar de evadir preguntas. Con alegría, Larson también vuelve a contar la historia de Tay, el chatbot de Microsoft que rápidamente aprendió a hacer tweets racistas y consiguió que se retirara con la misma rapidez.

Distinguir a los humanos de los gorilas

Y luego está mi favorito, el recuento de Larson del reconocedor de imágenes de Google que identificaba a un humano como un gorila. Por sí solo eso no sería gracioso, pero lo gracioso es lo que hizo Google para resolver el problema. Pensaría que la forma de resolver este problema, especialmente para un gigante tecnológico como Google, sería simplemente solucionar el problema haciendo que el reconocedor de imágenes sea más poderoso en su capacidad para discernir a los humanos de los gorilas. Pero no Google. En cambio, Google simplemente eliminó todas las referencias a gorilas del reconocedor de imágenes. ¡Problema resuelto! Es como ir al médico con un dedo infectado. Le gustaría que el médico tratara la infección y restableciera el uso completo del dedo. Pero lo que hizo Google es más como un médico cortándote el dedo. Se acabó la infección. Pero, Dios mío, ¿no es tan malo? También lo es el dedo.

Vivimos en un clima cultural que ama las máquinas y donde la promesa de la inteligencia artificial general asume, al menos para algunos, proporciones religiosas. La idea de que podamos subirnos a las máquinas intriga a muchos. Entonces, ¿por qué no esperar la perspectiva de que lo hagan, especialmente porque algunas personas muy inteligentes garantizan que la supremacía de las máquinas es inevitable? Larson en The myth of artificial intelligence desbanca con éxito esta narrativa de inevitabilidad. Después de leer este libro, crea si le gusta que la singularidad está a la vuelta de la esquina, que los humanos pronto serán mascotas de las máquinas, que los señores supremos benignos o malévolos de las máquinas están a punto de convertirse en nuestros amos. Pero sepa que tal creencia no tiene fundamento y que ni la ciencia ni la filosofía la respaldan.

Artículo publicado originalmente en inglés por William A. Dembski Ph.D.