En junio de 2022, el ingeniero de Google Blake Lemoine saltó a los titulares al afirmar que el chatbot LaMDA de la empresa había alcanzado la sintiencia. Según Lemoine, el software tenía la capacidad de conversación de un niño precoz de siete años, por lo que deberíamos suponer que poseía una conciencia similar del mundo.
LaMDA, que más tarde se hizo público con el nombre de Bard, funciona con un «gran modelo de lenguaje» (LLM) del tipo que también constituye el motor del bot ChatGPT de OpenAI. Otras grandes empresas tecnológicas se apresuran a implantar tecnologías similares.
Cientos de millones de personas han tenido ya la oportunidad de jugar con los LLM, pero pocos parecen creer que sean conscientes. En su lugar, en la poética frase de la lingüista y científica de datos Emily Bender, son «loros estocásticos», que parlotean convincentemente sin entender. Pero, ¿qué pasará con la próxima generación de sistemas de inteligencia artificial (IA), y con la siguiente?
Nuestro equipo de filósofos, neurocientíficos e informáticos analizó las teorías científicas actuales sobre el funcionamiento de la conciencia humana para elaborar una lista de propiedades computacionales básicas que debería poseer cualquier sistema hipotéticamente consciente. En nuestra opinión, ningún sistema actual se acerca lo más mínimo al listón de la conciencia, pero al mismo tiempo no hay ninguna razón obvia para que los sistemas futuros no lleguen a ser realmente conscientes.
Encontrar indicadores
Desde que Alan Turing, pionero de la informática, propuso su «Juego de imitación» en 1950, la capacidad de hacerse pasar por un ser humano en una conversación se ha considerado a menudo un indicador fiable de consciencia. Esto suele deberse a que la tarea parece tan difícil que requiere conciencia.
Sin embargo, al igual que ocurrió en 1997 con la derrota del gran maestro Gary Kasparov a manos del ordenador de ajedrez Deep Blue, la fluidez conversacional de los LLM puede que sólo mueva los postes de la portería. ¿Existe algún principio para abordar la cuestión de la conciencia de la IA que no dependa de nuestras intuiciones sobre lo que es difícil o especial en la cognición humana?
Nuestro reciente informe pretende precisamente eso. Comparamos las teorías científicas actuales sobre lo que hace conscientes a los humanos para elaborar una lista de «propiedades indicadoras» que podrían aplicarse a los sistemas de IA.
No creemos que los sistemas que poseen las propiedades indicadoras sean definitivamente conscientes, pero cuantos más indicadores, más en serio deberíamos tomarnos las afirmaciones sobre la consciencia de la IA.
Los procesos computacionales que subyacen a la conciencia
¿Qué tipo de indicadores buscábamos? Evitamos criterios conductuales evidentes, como la capacidad de mantener conversaciones con otras personas, porque suelen estar centrados en el ser humano y son fáciles de falsear.
En su lugar, nos fijamos en las teorías de los procesos computacionales que sustentan la conciencia en el cerebro humano. Estas teorías pueden indicarnos el tipo de procesamiento de la información necesario para sustentar la experiencia subjetiva.
Las «teorías del espacio de trabajo global», por ejemplo, postulan que la conciencia surge de la presencia de un cuello de botella de capacidad limitada que coteja la información de todas las partes del cerebro y selecciona la información para ponerla a disposición global. Las «teorías del procesamiento recurrente» hacen hincapié en el papel de la retroalimentación de los procesos posteriores a los anteriores.
Cada teoría sugiere a su vez indicadores más específicos. Nuestra lista final contiene 14 indicadores, cada uno de los cuales se centra en un aspecto del funcionamiento de los sistemas más que en su comportamiento.
No hay razón para pensar que los sistemas actuales sean conscientes
¿Cuál es la situación de las tecnologías actuales? Nuestro análisis sugiere que no hay motivos para pensar que los sistemas actuales de IA sean conscientes.
Algunos sí cumplen algunos de los indicadores. Los sistemas que utilizan la arquitectura de transformadores, un tipo de modelo de aprendizaje automático que está detrás de ChatGPT y herramientas similares, cumplen tres de los indicadores de "espacio de trabajo global", pero carecen de la capacidad crucial de retransmisión global. Tampoco satisfacen la mayoría de los demás indicadores.
Así que, a pesar de las impresionantes capacidades conversacionales de ChatGPT, probablemente no haya nadie en casa. Otras arquitecturas cumplen como mucho un puñado de criterios.
La mayoría de las arquitecturas actuales sólo cumplen, como mucho, algunos de los indicadores. Sin embargo, para la mayoría de los indicadores existe al menos una arquitectura actual que los cumple.
Esto sugiere que no hay barreras técnicas obvias, en principio, para construir sistemas de IA que satisfagan la mayoría o todos los indicadores.
Probablemente se trate más de cuándo se construirá un sistema de este tipo que de si se construirá. Por supuesto, cuando eso ocurra seguirán planteándose muchas preguntas.
Más allá de la conciencia humana
Las teorías científicas que barajamos (¡y los autores del artículo!) no siempre coinciden entre sí. Utilizamos una lista de indicadores en lugar de criterios estrictos para reconocer este hecho. Esta puede ser una metodología poderosa frente a la incertidumbre científica.
Nos inspiramos en debates similares sobre la conciencia animal. La mayoría de nosotros pensamos que al menos algunos animales no humanos son conscientes, a pesar de que no pueden conversar con nosotros sobre lo que sienten.
Un informe de 2021 de la London School of Economics en el que se argumentaba que los cefalópodos, como los pulpos, probablemente sienten dolor, fue decisivo para cambiar la política de ética animal del Reino Unido. Centrarse en las características estructurales tiene la sorprendente consecuencia de que incluso algunos animales simples, como los insectos, podrían poseer una forma mínima de conciencia.
Nuestro informe no hace recomendaciones sobre qué hacer con la IA consciente. Esta cuestión será más acuciante a medida que los sistemas de IA se vuelvan inevitablemente más potentes y se generalicen.
Nuestros indicadores no serán la última palabra, pero esperamos que se conviertan en un primer paso para abordar esta delicada cuestión con una base científica.