Los responsables políticos y los legisladores de la Unión Europea cerraron el viernes un acuerdo sobre el primer conjunto exhaustivo de normas del mundo que regula el uso de la inteligencia artificial (IA) en herramientas como el ChatGPT y en la vigilancia biométrica.

En las próximas semanas concretarán detalles que podrían alterar la legislación final, que se espera que entre en vigor a principios del próximo año y se aplique en 2026.

Hasta entonces, se anima a las empresas a que se adhieran a un pacto voluntario sobre IA para aplicar las obligaciones clave de la normativa.

He aquí los puntos clave que se han acordado:

SISTEMAS DE ALTO RIESGO

Los denominados sistemas de IA de alto riesgo -aquellos que se considera que tienen un potencial significativo para dañar la salud, la seguridad, los derechos fundamentales, el medio ambiente, la democracia, las elecciones y el Estado de derecho- tendrán que cumplir una serie de requisitos, como someterse a una evaluación de impacto sobre los derechos fundamentales, y obligaciones para acceder al mercado de la UE.

Los sistemas de IA que se considere que plantean riesgos limitados estarían sujetos a obligaciones de transparencia muy ligeras, como etiquetas de divulgación en las que se declare que el contenido ha sido generado por IA para permitir a los usuarios decidir cómo utilizarlo.

USO DE LA AI EN LA APLICACIÓN DE LA LEY

El uso de sistemas de identificación biométrica a distancia en tiempo real en espacios públicos por parte de las fuerzas del orden sólo se permitirá para ayudar a identificar a víctimas de secuestro, trata de seres humanos, explotación sexual y para prevenir una amenaza terrorista específica y presente.

También se permitirán en los esfuerzos por localizar a personas sospechosas de delitos de terrorismo, trata de seres humanos, explotación sexual, asesinato, secuestro, violación, robo a mano armada, participación en una organización delictiva y delitos contra el medio ambiente.

SISTEMAS DE AI DE PROPÓSITO GENERAL (GPAI) Y MODELOS FUNDACIONALES

Los GPAI y los modelos fundacionales estarán sujetos a requisitos de transparencia como la elaboración de documentación técnica, el cumplimiento de la legislación de la UE sobre derechos de autor y la difusión de resúmenes detallados sobre el contenido utilizado para el entrenamiento de algoritmos.

Los modelos de fundación clasificados como de riesgo sistémico y GPAI de alto impacto tendrán que llevar a cabo evaluaciones de los modelos, valorar y mitigar los riesgos, realizar pruebas de adversarios, informar a la Comisión Europea sobre incidentes graves, garantizar la ciberseguridad e informar sobre su eficiencia energética.

Hasta que se publiquen las normas armonizadas de la UE, los GPAI con riesgo sistémico podrán basarse en códigos de prácticas para cumplir la normativa.

IA PROHIBIDA

El reglamento prohíbe lo siguiente

- Sistemas de categorización biométrica que utilicen características sensibles como creencias políticas, religiosas, filosóficas, orientación sexual, raza.

- El raspado no selectivo de imágenes faciales de Internet o de grabaciones de CCTV para crear bases de datos de reconocimiento facial;

- Reconocimiento de emociones en el lugar de trabajo y en instituciones educativas.

- Puntuación social basada en el comportamiento social o las características personales.

- Sistemas de IA que manipulan el comportamiento humano para eludir su libre albedrío.

- IA utilizada para explotar las vulnerabilidades de las personas debido a su edad, discapacidad o situación social o económica.

SANCIONES POR INFRACCIONES

Dependiendo de la infracción y del tamaño de la empresa implicada, las multas irán desde los 7,5 millones de euros (8 millones de dólares) o el 1,5 % de la facturación anual global, hasta los 35 millones de euros o el 7 % de la facturación global.

(1 dólar = 0,9293 euros) (Reportaje de Foo Yun Chee Edición de Helen Popper)