El difícil equilibrio de regular la inteligencia artificial: entre el progreso y la cautela

Con la IA, aún estamos en la fase de confusión: debemos sopesar sus riesgos y sus beneficios para crear una regulación que, sin frenar el progreso, garantice un uso responsable.
mayo 8, 2023
Científicos crean inteligencia artificial

Carlos Gómez Rodríguez, Universidade da Coruña

En los últimos meses se han producido rápidos e inesperados avances en inteligencia artificial (IA). Podemos crear imágenes a voluntad con herramientas como Midjourney o DALL-E o hacer preguntas y conversar con ChatGPT. Y esto plantea también desafíos éticos, sociales y legales inéditos.

Los adelantos técnicos que cambian radicalmente nuestro modo de vida siempre traen incógnitas y confusión. Cuando el tren empezó a sustituir a los caballos, se mezclaban preocupaciones fundadas (como los problemas de respirar humo) con otras que acabaron no siéndolo (como el miedo a que los viajeros se asfixiaran en los túneles). Con tiempo y perspectiva, se fue aclarando el panorama.

Con la IA, aún estamos en la fase de confusión: debemos sopesar sus riesgos y sus beneficios para crear una regulación que, sin frenar el progreso, garantice un uso responsable. Veamos algunos de los puntos más relevantes en este debate.

Una delicada materia prima: los datos

Detrás de herramientas como Midjourney o ChatGPT hay algoritmos que aprenden a realizar tareas a partir de grandes cantidades de datos. Por ejemplo, para que Midjourney pudiera crear imágenes a partir de texto, hizo falta recopilar miles de millones de imágenes con sus descripciones, descargándolas de Internet. De ahí surge un conflicto de propiedad intelectual: ¿es legal usar contenidos protegidos por derechos de autor para enseñar a estos sistemas?

Muchos artistas opinan que no: se están usando sus obras para crear otras obras, lo que pone en peligro su mercado. Por eso han denunciado a los responsables de sistemas de este tipo.

Pero hay un argumento técnico en sentido opuesto: al aprender, estos sistemas no copian ni guardan en memoria las obras. Solo las usan para mejorar su conocimiento de cómo hacer la tarea. Algo no tan distinto de lo que hace un artista humano, que se deja influir e inspirar por el arte que ha visto.

Serán los tribunales de Estados Unidos los que decidirán si esto es un “uso legítimo” de los datos o no. Entretanto, la empresa Adobe trabaja en una alternativa que no usa imágenes con derechos de autor sin consentimiento de los creadores.

Europa, más rigurosa

Otro conflicto, esta vez centrado en Europa, es el de la protección de datos. La legislación de la UE no permite, en general, procesar la información personal de nadie sin su consentimiento. Esto se aplica incluso a datos que son públicos en Internet.

Para aprender a conversar, ChatGPT ha necesitado centenares de miles de millones de palabras obtenidas de la Red. Estos textos pueden incluir menciones a personas, y nadie las ha eliminado ni pedido su consentimiento. El problema es que, en este caso, eso parece imposible dado el enorme volumen de los datos: una “solución Adobe” no es viable.

Por tanto, una interpretación estricta de la normativa europea parece frontalmente incompatible con los sistemas como ChatGPT. De ahí que Italia lo haya prohibido.

Lo malo es que una medida así perjudica gravemente la competitividad de un país. Por ejemplo, este tipo de herramientas multiplican la productividad de los programadores. Si una empresa tecnológica quiere contratar personal, ¿lo hará en un país donde se permitan o donde se prohíban? La pregunta se responde sola.

Así, los legisladores europeos se enfrentan a una situación incómoda: conciliar la protección de datos personales con no perder el tren de la IA frente a países con normas más laxas, como los anglosajones.

¿Cómo la usamos?

Otro aspecto clave de la regulación de la IA es para qué se usa. Hay que recordar que un algoritmo no es de por sí ético o no: es una herramienta que alguien usa para un fin. Por ejemplo, imaginemos un sistema que analice datos de un paciente y sugiera un diagnóstico. Puede ser muy valioso para ayudar a un médico, adoptando este la decisión última según su propio criterio. En cambio, la misma tecnología sería un peligro si toma la decisión final, sustituyendo al facultativo.

La UE es consciente de esto, y está preparando una regulación bajo el principio de “poner a la persona en el centro”: IA, sí, pero siempre bajo supervisión humana.

El problema es cómo llevarlo a cabo. Europa partía con unos años de ventaja preparando certificaciones para un uso responsable de la inteligencia artificial, pero ha retrasado el proceso al irrumpir ChatGPT: ahora hay que contemplar el uso de una herramienta tan versátil que la puede usar cualquiera para multitud de fines, éticos o no.

Mientras tanto, Estados Unidos ha lanzado una consulta pública sobre cómo crear una regulación así. Y China también quiere hacerlo, añadiendo el objetivo de que los sistemas de inteligencia artificial reflejen “los valores del socialismo”.

¿Podría volverse contra nosotros?

Hemos tratado algunos de los retos legales y éticos que plantea la IA en el presente. Pero ¿qué pasará a más largo plazo? Desde un punto de vista técnico, aún no está claro si se podrá seguir avanzando a un paso tan frenético como el de los últimos años. Pero si fuese así, los aspectos regulatorios que hemos visto serían solo el principio.

De ahí la petición de pausar por seis meses el desarrollo de nuevos sistemas, firmada a finales de marzo por cientos de expertos y figuras mediáticas.

En este sentido, un desafío muy comentado es el de la automatización de muchos puestos de trabajo. Pero revisando la historia, la humanidad siempre ha creado tecnologías para aligerar la carga laboral, y hoy no renunciaríamos a ninguna. La clave está en cómo repartir el trabajo y la riqueza: lo ideal sería evitar empleos innecesarios (como denunciaba el antropólogo David Graeber) y desigualdad que impida a parte de la población el acceso a una fuente de ingresos.

Otra preocupación a futuro es qué pasará si llegamos a desarrollar sistemas de IA conscientes. Hace poco, Google despidió a un ingeniero por decir que uno de sus sistemas conversacionales ya lo era. Según el filósofo de la mente David Chalmers, no parece que esto sea así; entre otras cosas, porque sistemas como ChatGPT no tienen memoria ni una personalidad estable.

Pero podría lograrse algún día. Si así fuera, habría que sopesar las implicaciones éticas de causar daño a un ser consciente, enfrentando dilemas parecidos a los que plantea la clonación. También tendríamos que evitar que la IA pudiese volverse contra nosotros, una de las motivaciones de la petición de pausa.

En suma, los últimos avances en IA obligan a un debate amplio sobre cómo regular su uso. Debemos prestar atención a los riesgos, pero sin olvidar que las revoluciones tecnológicas siempre han mejorado nuestra calidad de vida.


Carlos Gómez Rodríguez, Catedrático de Ciencias de la Computación e Inteligencia Artificial, Universidade da Coruña

Este artículo fue publicado originalmente en The Conversation. Lea el original.

Boletín DK