Estados Unidos, Gran Bretaña y más de una docena de otros países dieron a conocer el domingo lo que un alto funcionario estadounidense describió como el primer acuerdo internacional detallado sobre cómo mantener la inteligencia artificial a salvo de actores deshonestos, presionando para que las empresas creen sistemas de IA que sean "seguros por diseño".

En un documento de 20 páginas desvelado el domingo, los 18 países acordaron que las empresas que diseñan y utilizan IA deben desarrollarla y desplegarla de forma que mantenga a los clientes y al público en general a salvo de usos indebidos.

El acuerdo no es vinculante y contiene sobre todo recomendaciones generales, como vigilar los sistemas de IA para evitar abusos, proteger los datos contra manipulaciones e investigar a los proveedores de software.

Aún así, la directora de la Agencia de Ciberseguridad y Seguridad de las Infraestructuras de EE.UU., Jen Easterly, dijo que era importante que tantos países pusieran sus nombres a la idea de que los sistemas de IA deben anteponer la seguridad.

"Esta es la primera vez que hemos visto una afirmación de que estas capacidades no deben ser sólo sobre características geniales y lo rápido que podemos llevarlas al mercado o cómo podemos competir para reducir los costes", dijo Easterly a Reuters, afirmando que las directrices representan "un acuerdo de que lo más importante que hay que hacer en la fase de diseño es la seguridad."

El acuerdo es la última de una serie de iniciativas -pocas de las cuales son contundentes- de gobiernos de todo el mundo para dar forma al desarrollo de la IA, cuyo peso se hace sentir cada vez más en la industria y en la sociedad en general.

Además de Estados Unidos y Gran Bretaña, entre los 18 países firmantes de las nuevas directrices se encuentran Alemania, Italia, la República Checa, Estonia, Polonia, Australia, Chile, Israel, Nigeria y Singapur.

El marco aborda cuestiones sobre cómo evitar que la tecnología de la IA sea secuestrada por piratas informáticos e incluye recomendaciones como la de publicar los modelos sólo después de haber realizado las pruebas de seguridad adecuadas.

No aborda cuestiones espinosas en torno a los usos apropiados de la IA, o cómo se recopilan los datos que alimentan estos modelos.

El auge de la IA ha alimentado una serie de preocupaciones, como el temor a que pueda utilizarse para perturbar el proceso democrático, turbar el fraude o provocar una dramática pérdida de puestos de trabajo, entre otros perjuicios.

Europa va por delante de Estados Unidos en lo que respecta a la regulación de la IA, y los legisladores de ese país están elaborando normas al respecto. Francia, Alemania e Italia también alcanzaron recientemente un acuerdo sobre cómo debe regularse la inteligencia artificial que apoya "la autorregulación obligatoria a través de códigos de conducta" para los llamados modelos fundacionales de IA, que están diseñados para producir una amplia gama de resultados.

El gobierno de Biden ha estado presionando a los legisladores para que regulen la IA, pero un Congreso estadounidense polarizado ha avanzado poco en la aprobación de una normativa eficaz.

La Casa Blanca trató de reducir los riesgos de la IA para los consumidores, los trabajadores y los grupos minoritarios al tiempo que reforzaba la seguridad nacional con una nueva orden ejecutiva en octubre. (Reportaje de Raphael Satter y Diane Bartz; Edición de Alexandra Alper y Deepa Babington)