Los rápidos avances de la inteligencia artificial (IA), como el ChatGPT de OpenAI, respaldado por Microsoft, están complicando los esfuerzos de los gobiernos por acordar leyes que regulen el uso de esta tecnología.

He aquí los últimos pasos que están dando los órganos de gobierno nacionales e internacionales para regular las herramientas de IA:

AUSTRALIA

* Normativa de planificación

El gobierno australiano dijo el 17 de enero que crearía un organismo asesor para mitigar los riesgos de la IA y que planeaba trabajar con los organismos de la industria para introducir una serie de directrices, entre ellas animar a las empresas tecnológicas a etiquetar y poner marcas de agua a los contenidos generados por la IA.

BRETAÑA

* Normativa de planificación

Los principales desarrolladores de IA acordaron en noviembre, en la primera cumbre mundial sobre seguridad de la IA celebrada en Gran Bretaña, colaborar con los gobiernos para probar los nuevos modelos de vanguardia antes de su lanzamiento, con el fin de ayudar a gestionar los riesgos de la tecnología en desarrollo.

Más de 25 países presentes en la cumbre, incluidos EE.UU. y China, así como la UE, firmaron una "Declaración de Bletchley" para trabajar juntos y establecer un enfoque común en materia de supervisión.

Gran Bretaña dijo en la cumbre que triplicaría hasta 300 millones de libras (364 millones de dólares) su financiación para el "Recurso de Investigación de la IA", que comprende dos superordenadores que apoyarán la investigación para hacer seguros los modelos avanzados de IA, una semana después de que el primer ministro Rishi Sunak hubiera dicho que Gran Bretaña crearía el primer instituto de seguridad de la IA del mundo.

El organismo británico de control de datos dijo en octubre que había expedientado a Snapchat, de Snap Inc, con un aviso preliminar de aplicación de la ley por un posible fallo en la evaluación adecuada de los riesgos para la privacidad de su chatbot de IA generativa para los usuarios, en particular los niños.

CHINA

* Implementación de regulaciones temporales

Wu Zhaohui, viceministro chino de Ciencia y Tecnología, declaró en la sesión inaugural de la Cumbre sobre Seguridad de la IA celebrada en Gran Bretaña en noviembre que Pekín estaba dispuesta a aumentar la colaboración en materia de seguridad de la IA para ayudar a construir un "marco de gobernanza" internacional.

China publicó en octubre una propuesta de requisitos de seguridad para las empresas que ofrecen servicios impulsados por IA generativa, incluida una lista negra de fuentes que no pueden utilizarse para entrenar modelos de IA.

El país emitió un conjunto de medidas temporales en agosto, exigiendo a los proveedores de servicios que presentaran evaluaciones de seguridad y recibieran autorización antes de lanzar productos de IA al mercado masivo.

UNIÓN EUROPEA

* Normativa de planificación

Dos grupos clave de legisladores de la UE ratificaron el 13 de febrero un acuerdo provisional sobre las normas de la IA antes de una votación del Parlamento Europeo en abril que allanará el camino para la primera legislación mundial sobre esta tecnología.

Los países de la UE refrendaron el 2 de febrero un acuerdo político alcanzado en diciembre sobre la Ley de IA, cuyo objetivo es controlar mejor el uso que los gobiernos hacen de la IA en la vigilancia biométrica y la forma de regular los sistemas de IA.

El acuerdo exige que los modelos fundacionales y los sistemas de IA de uso general cumplan unas obligaciones de transparencia antes de salir al mercado. Éstas incluyen la elaboración de documentación técnica, el cumplimiento de la legislación de la UE sobre derechos de autor y la difusión de resúmenes detallados sobre el contenido utilizado para el entrenamiento.

FRANCIA

* Investigación de posibles infracciones

El organismo de control de la privacidad de Francia dijo en abril que estaba investigando las quejas sobre ChatGPT.

G7

* En busca de aportaciones sobre la normativa

Los países del G7 acordaron en octubre un código de conducta de 11 puntos para las empresas que desarrollen sistemas avanzados de IA, que "pretende promover una IA segura y digna de confianza en todo el mundo".

ITALIA

* Investigación de posibles infracciones

La autoridad italiana de protección de datos planea revisar las plataformas de IA y contratar a expertos en la materia, según declaró en mayo un alto funcionario. ChatGPT fue prohibido temporalmente en Italia en marzo de 2023, pero volvió a estar disponible en abril.

JAPÓN

* Normativa de planificación

El organismo de control de la privacidad de Japón ha advertido a OpenAI de que no recopile datos sensibles sin el permiso de las personas.

POLONIA

* Se investigan posibles infracciones

La Oficina de Protección de Datos Personales de Polonia dijo en septiembre que estaba investigando a OpenAI por una denuncia de que ChatGPT incumple las leyes de protección de datos de la UE.

ESPAÑA

* Investigan posibles infracciones

La agencia española de protección de datos inició en abril una investigación preliminar sobre posibles violaciones de datos por parte de ChatGPT.

NACIONES UNIDAS

* Normas de planificación

El Secretario General de la ONU, António Guterres, anunció en octubre la creación de un órgano consultivo de 39 miembros, compuesto por ejecutivos de empresas tecnológicas, funcionarios gubernamentales y académicos, para abordar los problemas de la gobernanza internacional de la IA.

ESTADOS UNIDOS

* En busca de aportaciones sobre la normativa

Estados Unidos, Gran Bretaña y más de una docena de países presentaron en noviembre un acuerdo no vinculante de 20 páginas con recomendaciones generales sobre la IA, como la supervisión de los sistemas para evitar abusos, la protección de los datos contra la manipulación y la investigación de los proveedores de software.

Estados Unidos pondrá en marcha un instituto de seguridad de la IA para evaluar los riesgos conocidos y emergentes de los llamados modelos de IA "de frontera", según declaró la secretaria de Comercio, Gina Raimondo, el 1 de noviembre durante la Cumbre de Seguridad de la IA celebrada en Gran Bretaña.

El presidente Joe Biden emitió una orden ejecutiva el 30 de octubre para exigir a los desarrolladores de sistemas de IA que planteen riesgos para la seguridad nacional, la economía, la salud pública o la seguridad de EE.UU. que compartan los resultados de las pruebas de seguridad con el gobierno.

CIUDAD DEL VATICANO

* En busca de aportaciones sobre la normativa

El Papa Francisco pidió en diciembre un tratado internacional jurídicamente vinculante para regular la IA, afirmando que no debe permitirse que los algoritmos sustituyan a los valores humanos y advirtiendo de una "dictadura tecnológica" que amenaza la existencia humana. (Compilado por Alessandro Parodi y Amir Orusov en Gdansk; Edición de Emelia Sithole-Matarise, William Maclean, Milla Nissi)