chatbot ChatGPT y bloques de diálogo

Lo que hay que saber sobre GPT-3

De acuerdo con el autor, GPT-3 ya está en nuestras vidas y es solo un comienzo. Por ello, debemos aprovechar su potencial y considerar sus limitaciones, sin obviar sus riesgos.
Inicio

Enrique Onieva Caracuel, Universidad de Deusto

GPT-3 no para. Es la máquina de textos más productiva de la historia. Y, entre los muchos análisis de su uso que ahora se realizan, hay cuestiones que no dejan de sorprender, por ejemplo, el sesgo de servilismo de la inteligencia artificial estrella. Un ejemplo es la tendencia de ChatGPT a estar de acuerdo con el interlocutor incluso cuando se equivoca.

Desde su lanzamiento el 30 de noviembre de 2022 por parte de OpenAI, ChatGPT ha recibido mucha atención debido a su capacidad para responder preguntas complejas. Solo cinco días después de su lanzamiento tenía registrados un millón de usuarios. Ahora, una búsqueda en Google muestra más de 700 millones de resultados. Estos números probablemente seguirán creciendo con el tiempo.

ChatGPT es un avanzado bot especializado en el diálogo humano. Es uno de los últimos ejemplos de aplicación de la tecnología Generative Pre-trained Transformer (GPT). En particular, ChatGPT se basa en GPT-3, que fue entrenado con más de 45 terabytes de datos de diferentes fuentes de internet.

Contenido ofensivo y violento censurado

GPT-3 está diseñado para imitar el lenguaje y la conversación humana. Además, por razones de seguridad, el conocimiento de ChatGPT está limitado hasta 2021 y se esfuerza por evitar generar contenido ofensivo o violento. En resumen, ChatGPT ha sido diseñado para completar automáticamente el texto, y, gracias a la información utilizada en su entrenamiento, tiene habilidades adicionales.

Por ejemplo, al ser capaz de completar correctamente la frase “nueve por tres igual a…”, podemos decir que también tiene habilidades matemáticas; al ser capaz de completar “la palabra Cheese, en castellano, significa…”, podemos decir que tiene habilidades de traducción. Además, si completa “érase una vez, un profesor de la Universidad de Deusto que se dirigía a impartir su clase de Ciencia de Datos, cuando, de repente…”, podemos decir que tiene creatividad. Estos son solo algunos ejemplos de las posibilidades de ChatGPT.

Gracias a este paradigma, y al gran volumen de información utilizado en su entrenamiento, han sido muchos los ámbitos en los que ChatGPT ha mostrado capacidades comparables a expertos. Ha superando los exámenes para ser médico en Estados Unidos, siendo incluso, autor en publicaciones científicas. Ello ha generado controversia, y su uso ha sido prohibido en colegios, sus textos han sido prohibidos en la popular plataforma stackoverflow, así como en conferencias científicas.

No garantiza la veracidad de la información

El sistema está entrenado para completar los textos dados con respuestas plausibles, así como sintáctica y semánticamente correctas. Lo cual no garantiza ni la veracidad de la información proporcionada ni la coherencia del texto generado.

Podemos decir que, en algunas situaciones, tiene tendencia a inventarse cosas, o a “alucinar”, como lo llaman los profesionales del sector. Lo que lleva a ChatGPT a cometer errores en temas que parecen simples.

La carencia de contexto puede ser una de las causas de sus respuestas erróneas. Por ejemplo, si se le pide completar la lista “{José María, José Luis, Mariano}”, puede sugerir el nombre Pedro, correcto en el contexto de los presidentes de Gobierno de España. Pero podría sugerir otro nombre, como Enrique, en el contexto de los nombres de españoles. Incluso alguna persona podría completarla con nombres de vecinos, compañeros o amigos si esos nombres estuvieran presentes en su contexto.

Dado que genera el texto en base a patrones aprendidos de los datos, carece de un modelo del mundo que permita relacionar conceptos del mundo físico y social. Así pues, podría fallar al responder preguntas parecidas a “¿De qué color es el caballo blanco de Santiago?”.

Otros errores podrían deberse a la mala calidad de algunos de los textos incluidos en su fuente de aprendizaje, lo cual puede generar sesgos indeseados.

Las preocupaciones por el uso de GPT-3

ChatGPT es un tipo de Inteligencia Artificial llamada Generativa. Actualmente, estas IA son muy populares debido a cómo pueden generar texto, imágenes, audio y vídeo de manera similar a como lo haría un humano. Diferentes profesionales pueden usarlas para generar contenido de manera eficiente y escalable.

Sin embargo, hay preocupaciones, como su potencial para generar noticias falsas o discurso de odio de manera masiva. También existe debate y discusión en torno a la presunta violación de la propiedad intelectual de las obras utilizadas en su entrenamiento, o de la autoría y propiedad de las obras generadas con estas herramientas.

Algunas personas creen que las IA pueden reemplazar a escritores y otras profesiones en las que la creatividad es importante, como el diseño o la música. Otros ven en ellas una herramienta útil para mejorar la creatividad y la productividad.

Lo cierto es que las IA están cambiando la forma en que pensamos sobre la escritura, la creatividad y su potencial. En el futuro, es probable que estas inteligencias artificiales tengan mayor capacidad para generar contenido personalizado, más preciso, veraz y adaptado a diferentes contextos. Además, surgirán aplicaciones multimodales, que podrán combinar habilidades de generación de texto, imágenes, audio y vídeo.

GPT-3 ya está en nuestras vidas y es solo un comienzo. Aprovechemos su potencial, consideremos sus limitaciones y no obviemos sus riesgos.


Enrique Onieva Caracuel, Profesor en Inteligencia Artificial, Universidad de Deusto

Este artículo fue publicado originalmente en The Conversation. Lea el original.