Aunque no está claro que los 50 países asistentes vayan a ponerse de acuerdo para respaldar siquiera una débil declaración de principios que están redactando los Países Bajos y Corea del Sur, coanfitriona, la conferencia se celebra cuando el interés por la IA en general está en máximos históricos gracias al lanzamiento del programa ChatGPT de OpenAI hace dos meses.

Los organizadores no invitaron a la Federación Rusa debido al conflicto de Ucrania, que será uno de los principales temas de debate de la cumbre, que se celebrará del 15 al 16 de febrero en La Haya.

"Se trata de una idea para la que ha llegado el momento", declaró el ministro holandés de Asuntos Exteriores, Wopke Hoekstra, a los miembros de la prensa extranjera en vísperas del evento. "Estamos dando el primer paso para articular y trabajar en lo que será el uso responsable de la IA en el ejército".

El acto puede ser un primer paso hacia el desarrollo, algún día, de un tratado internacional de armas sobre la IA, aunque eso se ve muy lejano.

Las naciones líderes se han mostrado hasta ahora reacias a acordar cualquier limitación sobre su uso, por temor a que hacerlo pudiera ponerlas en desventaja.

Unas 2.000 personas, entre expertos y académicos, asisten a una conferencia paralela a la cumbre, cuyos temas de debate incluyen los drones asesinos y los robots de matanza.

El Departamento de Defensa de Estados Unidos hablará sobre dónde ve potencial para la cooperación internacional en una presentación el jueves.

Un portavoz de la embajada china en los Países Bajos se refirió a un documento de posición en el que China subraya la necesidad de evitar "errores de cálculo estratégicos" con la IA y de asegurarse de que no escalará accidentalmente un conflicto.

Los países de la ONU que pertenecen a la Convención sobre Ciertas Armas Convencionales (CCAC) de 1983 llevan debatiendo las posibles limitaciones de los sistemas de armas autónomas letales -que pueden matar sin intervención humana- desde 2014.

Hoekstra dijo que la cumbre no sustituirá ese debate, sino que examinará otros aspectos de la IA militar.

Por ejemplo, la definición de términos, cómo podría utilizarse la IA de forma segura para acelerar la toma de decisiones en un contexto militar y cómo podría utilizarse para identificar objetivos legítimos.

"Nos estamos adentrando en un campo que desconocemos, para el que no disponemos de directrices, normas, marcos ni acuerdos. Pero los necesitaremos más pronto que tarde", afirmó Hoekstra.