Por Anthony Grayling, Brian Ball, Northeastern University London
El nuevo entendimiento científico y las técnicas de ingeniería siempre han impresionado y atemorizado. Sin duda, continuarán haciéndolo. OpenAI anunció recientemente que anticipa la “superinteligencia” – la IA que supere las habilidades humanas – para esta década. En consecuencia, está construyendo un nuevo equipo y dedicando el 20% de sus recursos informáticos a asegurar que el comportamiento de tales sistemas de IA esté alineado con los valores humanos.
Parece que no quieren superinteligencias artificiales rebeldes haciendo la guerra a la humanidad, como en la película de ciencia ficción de 1984 de James Cameron, The Terminator (de manera ominosa, el terminator de Arnold Schwarzenegger es enviado al pasado desde 2029). OpenAI está llamando a los principales investigadores y ingenieros de aprendizaje automático para ayudarles a abordar el problema.
¿Pero podrían los filósofos tener algo que aportar? En términos más generales, ¿qué se puede esperar de la disciplina milenaria en la nueva era tecnológicamente avanzada que ahora está emergiendo?
Para comenzar a responder a esto, vale la pena subrayar que la filosofía ha sido instrumental para la IA desde su inicio. Una de las primeras historias de éxito de la IA fue un programa informático de 1956, llamado el Logic Theorist, creado por Allen Newell y Herbert Simon. Su tarea era demostrar teoremas usando proposiciones del Principia Mathematica, una obra en tres volúmenes de 1910 de los filósofos Alfred North Whitehead y Bertrand Russell, que buscaba reconstruir todas las matemáticas sobre una base lógica.
De hecho, el enfoque inicial en la lógica en la IA debió mucho a los debates fundacionales llevados a cabo por matemáticos y filósofos.
Un paso significativo fue el desarrollo de la lógica moderna por parte del filósofo alemán Gottlob Frege a finales del siglo XIX. Frege introdujo el uso de variables cuantificables, en lugar de objetos como personas, en la lógica. Su enfoque hizo posible decir no solo, por ejemplo, “Joe Biden es presidente”, sino también expresar sistemáticamente pensamientos generales como que “existe un X tal que X es presidente”, donde “existe” es un cuantificador y “X” es una variable.
Otros contribuyentes importantes en la década de 1930 fueron el lógico austríaco Kurt Gödel, cuyos teoremas de completitud e incompletitud tratan sobre los límites de lo que se puede probar, y el lógico polaco Alfred Tarski, cuya “prueba de la indefinibilidad de la verdad” demostró que “la verdad” en cualquier sistema formal estándar no puede definirse dentro de ese sistema particular, por lo que la verdad aritmética, por ejemplo, no puede definirse dentro del sistema de la aritmética.
Por último, el concepto abstracto de máquina de computación creado en 1936 por Alan Turing, se basó en estos avances y tuvo una enorme repercusión en los inicios de la IA.
Sin embargo, podría decirse que incluso si esa buena y vieja IA simbólica estaba en deuda con la alta filosofía y la lógica, la IA de “segunda ola”, basada en el aprendizaje profundo, deriva más de las hazañas concretas de ingeniería asociadas con el procesamiento de vastas cantidades de datos.
Aun así, la filosofía también ha jugado un papel aquí. Tomemos los grandes modelos de lenguaje, como el que impulsa ChatGPT, que produce texto conversacional. Son modelos enormes, con miles de millones o incluso billones de parámetros, entrenados en vastos conjuntos de datos (que típicamente comprenden gran parte de internet). Pero en su núcleo, rastrean y explotan patrones estadísticos del uso del lenguaje. Algo muy similar a esta idea fue articulado por el filósofo austríaco Ludwig Wittgenstein a mediados del siglo XX: “el significado de una palabra”, dijo, “es su uso en el lenguaje”.
Pero la filosofía contemporánea, y no solo su historia, es relevante para la IA y su desarrollo. ¿Podría un LLM realmente entender el lenguaje que procesa? ¿Podría alcanzar la conciencia? Estas son preguntas profundamente filosóficas.
La ciencia hasta ahora no ha podido explicar completamente cómo surge la conciencia de las células en el cerebro humano. Algunos filósofos incluso creen que este es un “problema difícil” que está más allá del alcance de la ciencia y puede requerir la ayuda de la filosofía.
De manera similar, podemos preguntar si una IA generadora de imágenes podría ser verdaderamente creativa. Margaret Boden, una científica cognitiva y filósofa de la IA británica, argumenta que mientras la IA podrá producir nuevas ideas, tendrá dificultades para evaluarlas como lo hacen las personas creativas.
También anticipa que solo una arquitectura híbrida (neuro-simbólica), que use tanto técnicas lógicas como aprendizaje profundo a partir de datos, logrará una inteligencia artificial general.
Valores humanos
Retomando el anuncio de OpenAI, cuando le planteamos nuestra pregunta sobre el papel de la filosofía en la era de la IA, ChatGPT nos sugirió que (entre otras cosas) la filosofía «ayuda a garantizar que el desarrollo y el uso de la IA estén en consonancia con los valores humanos».
En este espíritu, quizás se nos permita proponer que, si la alineación de la IA es el problema serio que OpenAI cree que es, no es solo un problema técnico que deben resolver los ingenieros o las empresas tecnológicas, sino también un problema social. Eso requerirá la aportación de filósofos, pero también de científicos sociales, abogados, legisladores, usuarios ciudadanos y otros.
De hecho, muchas personas están preocupadas por el creciente poder e influencia de las empresas tecnológicas y su impacto en la democracia. Algunos argumentan que necesitamos una forma completamente nueva de pensar sobre la IA, teniendo en cuenta los sistemas subyacentes que apoyan a la industria. El abogado británico y autor Jamie Susskind, por ejemplo, ha argumentado que es hora de construir una “república digital” – una que finalmente rechace el mismo sistema político y económico que ha dado tanta influencia a las empresas tecnológicas.
Finalmente, preguntémonos brevemente, ¿cómo afectará la IA a la filosofía? La lógica formal en la filosofía en realidad data del trabajo de Aristóteles en la antigüedad. En el siglo XVII, el filósofo alemán Gottfried Leibniz sugirió que algún día podríamos tener un “calculus ratiocinator” – una máquina calculadora que nos ayudaría a derivar respuestas a preguntas filosóficas y científicas de una manera cuasi-oracular.
Quizás ahora estamos comenzando a realizar esa visión, con algunos autores defendiendo una “filosofía computacional” que literalmente codifica suposiciones y deriva consecuencias a partir de ellas. Esto permite finalmente evaluaciones factuales y/o orientadas a valores de los resultados.
Por ejemplo, el proyecto PolyGraphs simula los efectos del intercambio de información en las redes sociales. Esto luego se puede usar para abordar computacionalmente preguntas sobre cómo debemos formar nuestras opiniones.
Ciertamente, el progreso en la IA ha dado a los filósofos mucho en qué pensar; incluso puede haber comenzado a proporcionar algunas respuestas.
Artículo publicado en inglés por The conversation. Lea el original en esta página.