Las empresas que utilizan herramientas de IA generativa como ChatGPT y Bard con potencial para generar desinformación deben etiquetar esos contenidos como parte de sus esfuerzos para combatir las noticias falsas, declaró el lunes la comisaria adjunta de la Comisión Europea, Vera Jourova.

Presentada a finales del año pasado, ChatGPT de OpenAI, respaldada por Microsoft, se ha convertido en la aplicación de consumo de mayor crecimiento de la historia y ha desencadenado una carrera entre las empresas tecnológicas para sacar al mercado productos de IA generativa.

Sin embargo, crece la preocupación por el posible abuso de la tecnología y la posibilidad de que los malos actores e incluso los gobiernos la utilicen para producir mucha más desinformación que antes.

"Los firmantes que integren la IA generativa en sus servicios, como Bingchat para Microsoft, Bard para Google, deben incorporar las salvaguardas necesarias para que estos servicios no puedan ser utilizados por actores malintencionados para generar desinformación", declaró Jourova en una rueda de prensa.

"Los firmantes que dispongan de servicios con potencial para difundir desinformación generada por la IA deberán, a su vez, poner en marcha tecnología para reconocer este tipo de contenidos y etiquetarlos claramente a los usuarios", añadió.

Empresas como Google, Microsoft y Meta Platforms que han suscrito el Código de buenas prácticas de la UE para hacer frente a la desinformación deberán informar en julio sobre las salvaguardias puestas en marcha para atajar este problema, dijo Jourova.

Advirtió a Twitter, que abandonó el Código la semana pasada, que espere un mayor escrutinio regulador.

"Al abandonar el Código, Twitter ha atraído mucha atención y sus acciones y el cumplimiento de la legislación de la UE serán objeto de un escrutinio enérgico y urgente", dijo Jourova. (Reportaje de Foo Yun Chee; Edición de Kirsten Donovan)