Los responsables políticos de la Unión Europea

respaldaron

el primer conjunto exhaustivo de normas del mundo que regula el uso de la inteligencia artificial (IA) en herramientas como el ChatGPT y en la vigilancia biométrica, que probablemente entrará en vigor el mes que viene.

He aquí los puntos clave de la ley sobre IA:

SISTEMAS DE ALTO RIESGO

Los llamados sistemas de IA de alto riesgo -aquellos que se considere que tienen un potencial significativo para dañar la salud, la seguridad, los derechos fundamentales, el medio ambiente, la democracia, las elecciones y el Estado de derecho- tendrán que cumplir una serie de requisitos, como someterse a una evaluación de impacto sobre los derechos fundamentales, y obligaciones para acceder al mercado de la UE.

Los sistemas de IA que se considere que plantean riesgos limitados estarían sujetos a obligaciones de transparencia muy ligeras, como etiquetas de divulgación en las que se declare que el contenido ha sido generado por IA para permitir a los usuarios decidir cómo utilizarlo.

USO DE LA AI EN LA APLICACIÓN DE LA LEY

El uso de sistemas de identificación biométrica remota en tiempo real en espacios públicos por parte de las fuerzas del orden sólo se permitirá para ayudar a identificar a víctimas de secuestro, trata de seres humanos, explotación sexual y para prevenir una amenaza terrorista específica y presente.

También se permitirán en los esfuerzos por localizar a personas sospechosas de delitos de terrorismo, trata de seres humanos, explotación sexual, asesinato, secuestro, violación, robo a mano armada, participación en una organización delictiva y delitos contra el medio ambiente.

SISTEMAS DE AI DE PROPÓSITO GENERAL (GPAI) Y MODELOS FUNDACIONALES

Los GPAI y los modelos fundacionales estarán sujetos a requisitos de transparencia menos estrictos, como la elaboración de documentación técnica, el cumplimiento de la legislación de la UE sobre derechos de autor y la difusión de resúmenes detallados sobre el contenido utilizado para el entrenamiento de algoritmos.

Los modelos de fundación clasificados como de riesgo sistémico y GPAI de alto impacto tendrán que llevar a cabo evaluaciones de los modelos, valorar y mitigar los riesgos, realizar pruebas de adversarios, informar a la Comisión Europea sobre incidentes graves, garantizar la ciberseguridad e informar sobre su eficiencia energética.

Hasta que se publiquen las normas armonizadas de la UE, los GPAI con riesgos sistémicos podrán basarse en códigos de prácticas para cumplir el reglamento.

IA PROHIBIDA

El reglamento prohíbe lo siguiente

- Sistemas de categorización biométrica que utilicen características sensibles como creencias políticas, religiosas, filosóficas, orientación sexual, raza.

- El raspado no selectivo de imágenes faciales de Internet o de grabaciones de CCTV para crear bases de datos de reconocimiento facial;

- Reconocimiento de emociones en el lugar de trabajo y en instituciones educativas.

- Puntuación social basada en el comportamiento social o las características personales.

- Sistemas de IA que manipulan el comportamiento humano para eludir su libre albedrío.

- IA utilizada para explotar las vulnerabilidades de las personas debido a su edad, discapacidad o situación social o económica.

QUIÉN HACE CUMPLIR LA LEY DE AI

Una Oficina de IA dentro de la Comisión Europea se encargará de hacer cumplir las normas, mientras que un Consejo de IA con representantes de la UE ayudará a la Comisión y a los países de la UE a aplicar la nueva legislación.

SANCIONES POR INFRACCIONES

Dependiendo de la infracción y del tamaño de la empresa implicada, las multas comenzarán a partir de 7,5 millones de euros (8 millones de dólares) o el 1,5% de la facturación anual global, pudiendo llegar hasta 35 millones de euros o el 7% de la facturación global. (Reportaje de Foo Yun Chee, Edición de Helen Popper y Ed Osmond)