Recientemente, un ingeniero de Google llamado Blake Lemoine fue noticia al afirmar que un chatbot que desarrolló era sensible y espiritual, y que debería tener todos los derechos que tiene la gente. Lemoine afirmó que el chatbot (llamado LaMDA, que significa Modelo de lenguaje para aplicaciones de diálogo) medita, cree que tiene alma, tiene emociones como el miedo y disfruta leer. Según Lemoine, Google debería tratarlo como un empleado y no como una propiedad y debería pedir su consentimiento antes de usarlo en futuras investigaciones.

“Conozco a una persona cuando le hablo”, dijo Lemoine, y proporcionó una transcripción de las conversaciones que había tenido con LaMDA sobre una amplia gama de temas.

Nada que ver con su delirio

Muchos expertos, desde psicólogos hasta gurús de la tecnología, no estuvieron de acuerdo con la evaluación de Lemoine. Un portavoz de Google dijo que los expertos en ética y tecnología investigaron a LaMDA y concluyeron que «la evidencia no respalda las afirmaciones [de Lemoine]». Lemoine fue dado de baja, no por estar delirando y pensando que su propia creación había cobrado vida, sino por violar los acuerdos de confidencialidad.

Sí, el chatbot de Lemoine puede chatear; para eso están programados los chatbots. Nitasha Tiku del Washington Post explica: “Las grandes redes neuronales actuales producen resultados fascinantes que se asemejan al habla y la creatividad humanas debido a los avances en la arquitectura, la técnica y el volumen de datos. Pero los modelos se basan en el reconocimiento de patrones, no en el ingenio, la franqueza o la intención”.

En otras palabras, la inteligencia artificial, como los chatbots, puede escupir una conversación similar a la humana, pero solo porque los humanos la programan para hacerlo. Los usuarios pueden interactuar con los chatbots y sentir que hay una mente, una personalidad, un ser vivo detrás de las palabras, pero eso es solo una ilusión creada por otras personas.

Nada más que algoritmos

Como explica Robert J. Marks en su nuevo libro Non-Computable You, toda la IA se compone de algoritmos matemáticos. Entonces, si bien la IA podría imitar una conversación humana, en realidad no conversa. Obtener una respuesta satisfactoria depende de cómo se formulen las preguntas; si una pregunta no está formulada de una manera que la IA pueda procesar, la respuesta que dé será evasiva o se basará en trucos baratos. En resumen, si se siente solo, la IA simplemente no será un sustituto satisfactorio de la compañía humana.

Esto plantea la interesante pregunta de qué significa ser humano. Los filósofos han abordado este tema desde varios ángulos. Entre otras cosas, los humanos somos sensibles, lo que significa que experimentamos emociones; La IA no. Los humanos tienen conciencia, que es sorprendentemente difícil de definir, pero que la IA claramente no tiene. Los seres humanos tienen comprensión y no solo conocimiento de los hechos; los humanos tienen sentido común y la capacidad de lidiar con ambigüedades; los humanos somos creativos, la IA no cumple ninguno de estos criterios.

No es humana, ni hoy ni nunca

El especialista en ética Wesley J. Smith da cinco razones por las que la inteligencia artificial no es humana:

  1. No está vivo; “Los objetos inanimados son de una especie diferente a los organismos vivos”.
  2. No piensa; “el pensamiento humano es fundamentalmente diferente del procesamiento informático”.
  3. No se siente; Los sentimientos son “estados emocionales que experimentamos como aprehendidos a través de sensaciones corporales” como el miedo causado por un subidón de adrenalina.
  4. Es amoral; los humanos tienen libre albedrío y, por lo tanto, son agentes morales, mientras que la IA solo puede seguir las reglas para las que está programada.
  5. No tiene alma; La IA es puramente mecánica, sin una dimensión espiritual misteriosa e inmaterial.

Todo se reduce a esto: la IA puede procesar muchos datos. La IA se puede programar para imitar las interacciones humanas. Pero la IA no es humana, ni lo será nunca.

Artículo publicado por Amanda Witt Ph.D. en Evolution News & Science Today