Un nuevo conjunto de leyes que rigen el uso de la inteligencia artificial (IA) en la Unión Europea obligará a las empresas a ser más transparentes sobre los datos utilizados para entrenar sus sistemas, desvelando uno de los secretos más celosamente guardados de la industria.

En los 18 meses transcurridos desde que OpenAI, respaldada por Microsoft, dio a conocer al público ChatGPT, se ha producido un aumento del compromiso público y de la inversión en IA generativa, un conjunto de aplicaciones que pueden utilizarse para producir rápidamente contenidos de texto, imágenes y audio.

Pero a medida que la industria se dispara, han surgido preguntas sobre cómo obtienen las empresas de IA los datos utilizados para entrenar sus modelos, y si alimentarlos con libros superventas y películas de Hollywood sin el permiso de sus creadores supone una violación de los derechos de autor.

La recién aprobada Ley de IA de la UE se está desarrollando por fases a lo largo de los próximos dos años, dando tiempo a los reguladores para aplicar las nuevas leyes mientras las empresas lidian con un nuevo conjunto de obligaciones. Pero aún se desconoce cómo funcionarán exactamente algunas de estas normas en la práctica.

Una de las secciones más polémicas de la ley establece que las organizaciones que desplieguen modelos de IA de uso general, como ChatGPT, tendrán que proporcionar "resúmenes detallados" del contenido utilizado para entrenarlos. La recién creada Oficina de IA dijo que planea publicar una plantilla para que las organizaciones la sigan a principios de 2025, tras una consulta con las partes interesadas.

Aunque aún no se han concretado los detalles, las empresas de IA se resisten mucho a revelar con qué se han entrenado sus modelos, describiendo la información como un secreto comercial que daría a los competidores una ventaja injusta si se hiciera pública.

"Sería un sueño hecho realidad ver los conjuntos de datos de mis competidores, y lo mismo para ellos ver los nuestros", afirmó Matthieu Riouf, director general de la empresa de edición de imágenes con IA Photoroom.

"Es como cocinar", añadió. "Hay una parte secreta de la receta que los mejores chefs no compartirían, el je ne sais quoi que la hace diferente".

El grado de granularidad que acaben teniendo estos informes de transparencia tendrá grandes implicaciones para las startups de IA más pequeñas y las grandes empresas tecnológicas como Google y Meta, que han situado esta tecnología en el centro de sus operaciones futuras.

COMPARTIR SECRETOS COMERCIALES

En el último año, varias empresas tecnológicas destacadas, como Google, OpenAI y Stability AI, se han enfrentado a demandas de creadores que alegan que sus contenidos se utilizaron indebidamente para entrenar sus modelos.

Aunque el presidente de EE.UU., Joe Biden, ha aprobado una serie de órdenes ejecutivas centradas en los riesgos de seguridad de la IA, las cuestiones sobre los derechos de autor no se han puesto a prueba del todo. Los llamamientos para que las empresas tecnológicas paguen a los titulares de derechos por los datos han recibido apoyo bipartidista en el Congreso.

En medio del creciente escrutinio, las empresas tecnológicas han firmado una avalancha de acuerdos de licencia de contenidos con medios de comunicación y sitios web. Entre otros, OpenAI firmó acuerdos con el Financial Times y The Atlantic, mientras que Google llegó a acuerdos con el sitio de medios sociales Reddit de NewsCorp.

A pesar de estos movimientos, OpenAI suscitó críticas en marzo, cuando su directora técnica, Mira Murati, se negó a responder a una pregunta del Wall Street Journal sobre si se habían utilizado vídeos de YouTube para entrenar su herramienta de generación de vídeos Sora, lo que, según la empresa, infringiría sus términos y condiciones.

El mes pasado, OpenAI se enfrentó a nuevas críticas por presentar una voz generada por IA y descrita como "inquietantemente similar" a la suya por la actriz Scarlett Johansson en una demostración pública de la versión más reciente de ChatGPT.

Thomas Wolf, cofundador de la destacada startup de IA Hugging Face, dijo que apoyaba una mayor transparencia, pero que ese sentimiento no era compartido por toda la industria. "Es difícil saber cómo funcionará. Aún queda mucho por decidir", afirmó.

Los legisladores de alto nivel de todo el continente siguen divididos.

Dragos Tudorache, uno de los legisladores que supervisó la redacción de la Ley de IA en el Parlamento Europeo, afirmó que se debería obligar a las empresas de IA a hacer públicos sus conjuntos de datos.

"Tienen que ser lo suficientemente detallados como para que Scarlett Johansson, Beyonce o quien sea puedan saber si su trabajo, sus canciones, su voz, su arte o su ciencia se utilizaron en el entrenamiento del algoritmo", afirmó.

Un funcionario de la Comisión dijo: "La Ley de IA reconoce la necesidad de garantizar un equilibrio adecuado entre la necesidad legítima de proteger los secretos comerciales y, por otro lado, la necesidad de facilitar la capacidad de las partes con intereses legítimos, incluidos los titulares de derechos de autor, para ejercer sus derechos en virtud de la legislación de la Unión".

Bajo la presidencia de Emmanuel Macron, el gobierno francés se ha opuesto en privado a la introducción de normas que podrían obstaculizar la competitividad de las startups europeas de IA.

En su intervención en la conferencia Viva Technology, celebrada en París en mayo, el ministro francés de Finanzas, Bruno Le Maire, dijo que quería que Europa fuera un líder mundial en IA, y no sólo un consumidor de productos estadounidenses y chinos.

"Por una vez, Europa, que ha creado controles y normas, tiene que entender que hay que innovar antes de regular", dijo. "De lo contrario, corre el riesgo de regular tecnologías que no domina, o de regularlas mal porque no las domina". (Reportaje de Martin Coulter, información adicional de Leigh Thomas; edición de Matt Scuffham y Elaine Hardcastle)