Un investigador del propietario chino de TikTok, ByteDance, fue añadido erróneamente a un groupchat de expertos estadounidenses en seguridad de la inteligencia artificial la semana pasada, según informó el lunes el Instituto Nacional de Normas y Tecnología de Estados Unidos (NIST).

El investigador fue añadido a una instancia de Slack para discusiones entre miembros del Instituto de Seguridad de Inteligencia Artificial de EE.UU. del NIST, según una persona familiarizada con el asunto.

En un correo electrónico, el NIST dijo que añadió a la investigadora en el entendimiento de que era una voluntaria.

"Una vez que el NIST tuvo conocimiento de que la persona era empleada de ByteDance, fue rápidamente eliminada por violar el código de conducta del consorcio sobre la tergiversación", decía el correo electrónico.

La investigadora, cuyo perfil de LinkedIn dice que reside en California, no devolvió los mensajes; ByteDance no respondió a los correos electrónicos en busca de comentarios.

La persona familiarizada con el asunto dijo que la aparición de una investigadora de ByteDance levantó cejas en el consorcio porque la empresa no es miembro y TikTok está en el centro de un debate nacional sobre si la popular aplicación ha abierto una puerta trasera para que el gobierno chino espíe o manipule a escala a los estadounidenses. La semana pasada, la Cámara de Representantes de Estados Unidos aprobó un proyecto de ley para obligar a ByteDance a desprenderse de TikTok o enfrentarse a una prohibición a escala nacional; el ultimátum se enfrenta a un camino incierto en el Senado.

El Instituto de Seguridad de la IA tiene como objetivo evaluar los riesgos de los programas de inteligencia artificial de vanguardia. Anunciado el año pasado, el instituto se creó en el marco del NIST y entre sus miembros fundadores figuran cientos de grandes empresas tecnológicas estadounidenses, universidades, empresas emergentes de IA, organizaciones no gubernamentales y otros, incluida la empresa matriz de Reuters, Thomson Reuters.

Entre otras cosas, el consorcio trabaja para desarrollar directrices para el despliegue seguro de programas de IA y para ayudar a los investigadores de IA a encontrar y solucionar vulnerabilidades de seguridad en sus modelos. El NIST dijo que la instancia de Slack para el consorcio incluye a unos 850 usuarios. (Reportaje de Raphael Satter; Edición de Sharon Singleton)