Los rápidos avances de la inteligencia artificial (IA), como el ChatGPT de OpenAI, respaldado por Microsoft, están complicando los esfuerzos de los gobiernos por acordar leyes que regulen el uso de esta tecnología.

He aquí los últimos pasos que están dando los órganos de gobierno nacionales e internacionales para regular las herramientas de IA:

AUSTRALIA

* Normativa de planificación

Australia obligará a los motores de búsqueda a redactar nuevos códigos para impedir que se comparta material de abuso sexual infantil creado por IA y que se produzcan versiones deepfake del mismo material.

BRETAÑA

* Reglamentos de planificación

Los principales desarrolladores de IA acordaron el 2 de noviembre, en la primera cumbre mundial sobre seguridad de la IA celebrada en Gran Bretaña, colaborar con los gobiernos para probar los nuevos modelos de vanguardia antes de su lanzamiento, con el fin de ayudar a gestionar los riesgos de la tecnología en desarrollo.

Más de 25 países presentes en la cumbre, incluidos EE.UU. y China, así como la UE, firmaron el 1 de noviembre una "Declaración de Bletchley" para trabajar juntos y establecer un enfoque común en materia de supervisión.

Gran Bretaña dijo en la cumbre que triplicaría hasta 300 millones de libras (364 millones de dólares) su financiación para el "Recurso de Investigación de la IA", que comprende dos superordenadores que apoyarán la investigación para hacer seguros los modelos avanzados de IA, una semana después de que el primer ministro Rishi Sunak hubiera dicho que Gran Bretaña crearía el primer instituto de seguridad de la IA del mundo.

El organismo británico de control de datos dijo en octubre que había expedientado a Snapchat, de Snap Inc, con un aviso preliminar de aplicación de la ley por un posible fallo en la evaluación adecuada de los riesgos para la privacidad de su chatbot de IA generativa para los usuarios, en particular los niños.

CHINA

* Implementación de regulaciones temporales

Wu Zhaohui, viceministro chino de Ciencia y Tecnología, declaró en la sesión inaugural de la Cumbre sobre Seguridad de la IA, celebrada en Gran Bretaña el 1 de noviembre, que Pekín estaba dispuesta a aumentar la colaboración en materia de seguridad de la IA para ayudar a construir un "marco de gobernanza" internacional.

China publicó en octubre una propuesta de requisitos de seguridad para las empresas que ofrecen servicios impulsados por IA generativa, incluida una lista negra de fuentes que no pueden utilizarse para entrenar modelos de IA.

El país emitió un conjunto de medidas temporales en agosto, exigiendo a los proveedores de servicios que presentaran evaluaciones de seguridad y recibieran autorización antes de lanzar productos de IA al mercado masivo.

UNIÓN EUROPEA

* Normativa de planificación

Francia, Alemania e Italia han llegado a un acuerdo sobre cómo debería regularse la IA, según un documento conjunto visto por Reuters el 18 de noviembre. El documento explica que los desarrolladores de modelos de base tendrían que definir fichas de modelo, que se utilizan para proporcionar información sobre un modelo de aprendizaje automático.

Los legisladores europeos llegaron a un acuerdo el 24 de octubre sobre una parte fundamental de las nuevas normas sobre IA, en la que se esbozan los tipos de sistemas que serán designados de "alto riesgo", acercándose a un acuerdo más amplio sobre la histórica Ley de IA que se espera para diciembre, según cinco personas familiarizadas con el asunto.

FRANCIA

* Investigación de posibles infracciones

El organismo de control de la privacidad de Francia dijo en abril que estaba investigando las quejas sobre ChatGPT.

G7

* En busca de aportaciones sobre la normativa

Los países del Grupo de los Siete acordaron el 30 de octubre un código de conducta de 11 puntos para las empresas que desarrollen sistemas avanzados de IA, que "pretende promover una IA segura y digna de confianza en todo el mundo".

ITALIA

* Investigación de posibles infracciones

La autoridad italiana de protección de datos planea revisar las plataformas de IA y contratar a expertos en la materia, según declaró en mayo un alto funcionario. ChatGPT fue prohibida temporalmente en el país en marzo, pero volvió a estar disponible en abril.

JAPÓN

* Investigan posibles infracciones

Japón espera introducir a finales de 2023 una normativa que probablemente se acerque más a la actitud estadounidense que las estrictas previstas en la UE, según declaró en julio un funcionario cercano a las deliberaciones.

El organismo de control de la privacidad del país ha advertido a OpenAI de que no recopile datos sensibles sin el permiso de las personas.

POLONIA

* Se investigan posibles infracciones

La Oficina de Protección de Datos Personales de Polonia dijo en septiembre que estaba investigando a OpenAI por una denuncia de que ChatGPT incumple las leyes de protección de datos de la UE.

ESPAÑA

* Investigan posibles infracciones

La agencia española de protección de datos inició en abril una investigación preliminar sobre posibles violaciones de datos por parte de ChatGPT.

NACIONES UNIDAS

* Normas de planificación

El Secretario General de la ONU, António Guterres, anunció el 26 de octubre la creación de un órgano consultivo de 39 miembros, compuesto por ejecutivos de empresas tecnológicas, funcionarios gubernamentales y académicos, para abordar cuestiones relativas a la gobernanza internacional de la IA.

El Consejo de Seguridad de la ONU celebró su primer debate formal sobre la IA en julio, en el que se abordaron las aplicaciones militares y no militares de la IA que "podrían tener consecuencias muy graves para la paz y la seguridad mundiales", dijo entonces Guterres.

ESTADOS UNIDOS

* En busca de aportaciones sobre la normativa

Estados Unidos pondrá en marcha un instituto de seguridad de la IA para evaluar los riesgos conocidos y emergentes de los llamados modelos "fronterizos" de IA, declaró la secretaria de Comercio, Gina Raimondo, el 1 de noviembre durante la Cumbre de Seguridad de la IA celebrada en Gran Bretaña.

El presidente Joe Biden emitió una nueva orden ejecutiva el 30 de octubre para exigir a los desarrolladores de sistemas de IA que planteen riesgos para la seguridad nacional, la economía, la salud pública o la seguridad de Estados Unidos que compartan los resultados de las pruebas de seguridad con el gobierno.

En septiembre, el Congreso de EE.UU. celebró audiencias sobre la IA y un foro sobre la IA en el que participaron Mark Zuckerberg, consejero delegado de Meta, y Elon Musk, consejero delegado de Tesla. Más de 60 senadores participaron en las conversaciones, durante las cuales Musk pidió un "árbitro" estadounidense para la IA.

La Comisión Federal de Comercio de EE.UU. abrió en julio una investigación sobre OpenAI alegando que ha infringido las leyes de protección del consumidor. (Recopilación de Alessandro Parodi y Amir Orusov en Gdansk; edición de Milla Nissi y Emelia Sithole-Matarise)