El ministro de Ciencia y Tecnología de la Información de Corea del Sur afirmó el miércoles que el mundo debe cooperar para garantizar el éxito del desarrollo de la IA, al concluir una cumbre mundial sobre esta tecnología en rápida evolución organizada por su país.

En la cumbre sobre la IA celebrada en Seúl, organizada conjuntamente con Gran Bretaña, se debatieron el miércoles cuestiones como la seguridad laboral, los derechos de autor y la desigualdad, después de que 16 empresas tecnológicas firmaran un acuerdo voluntario para desarrollar la IA de forma segura un día antes.

Catorce empresas, entre ellas Google de Alphabet, Microsoft, OpenAI y seis empresas coreanas, firmaron el miércoles otro compromiso para utilizar métodos como las marcas de agua para ayudar a identificar los contenidos generados por IA, así como para garantizar la creación de empleo y la ayuda a los grupos socialmente vulnerables.

"La cooperación no es una opción, es una necesidad", declaró Lee Jong-Ho, Ministro de Ciencia y TIC de Corea del Sur , en una entrevista con Reuters.

"La cumbre de Seúl ha dado más forma a las conversaciones sobre la seguridad de la IA y ha añadido debates sobre la innovación y la inclusividad", dijo Lee, añadiendo que espera que los debates de la próxima cumbre incluyan una mayor colaboración sobre los institutos de seguridad de la IA.

La primera cumbre mundial sobre IA se celebró en Gran Bretaña en noviembre, y la próxima reunión presencial tendrá lugar en Francia, probablemente en 2025.

Ministros y funcionarios de varios países debatieron el miércoles la cooperación entre institutos de seguridad de la IA respaldados por el Estado para ayudar a regular la tecnología.

Los expertos en IA acogieron con satisfacción los pasos dados hasta ahora para empezar a regular la tecnología, aunque algunos dijeron que era necesario hacer cumplir las normas.

"Necesitamos ir más allá de la voluntariedad... las personas afectadas deberían establecer las normas a través de los gobiernos", afirmó Francine Bennett, directora del Instituto Ada Lovelace, centrado en la IA.

Debería demostrarse que los servicios de IA cumplen las normas de seguridad obligatorias antes de salir al mercado, para que las empresas equiparen la seguridad a los beneficios y eviten cualquier posible reacción pública ante un daño inesperado, afirmó Max Tegmark, presidente del Future of Life Institute, una organización que se hace eco de los riesgos de los sistemas de IA.

El ministro de Ciencia surcoreano, Lee, afirmó que las leyes tienden a ir por detrás de la velocidad de avance de tecnologías como la IA.

"Pero para un uso seguro por parte del público, es necesario que existan leyes y reglamentos flexibles". (Reportaje de Joyce Lee Edición de Ed Davies)