La administración Biden está a punto de abrir un nuevo frente en su esfuerzo por salvaguardar la IA estadounidense frente a China con planes preliminares para colocar barreras de protección en torno a los modelos de IA más avanzados, el software central de sistemas de inteligencia artificial como ChatGPT, según fuentes consultadas.

El Departamento de Comercio está considerando un nuevo impulso normativo para restringir la exportación de modelos de IA patentados o de código cerrado, cuyo software y los datos con los que se entrena se mantienen en secreto, dijeron tres personas familiarizadas con el asunto.

Cualquier acción complementaría una serie de medidas puestas en marcha en los dos últimos años para bloquear la exportación de sofisticados chips de IA a China, en un esfuerzo por frenar el desarrollo por parte de Pekín de esta tecnología punta con fines militares. Aun así, será difícil para los reguladores seguir el ritmo de los vertiginosos avances de la industria.

El Departamento de Comercio declinó hacer comentarios. La embajada china en Washington no respondió inmediatamente a una solicitud de comentarios.

Actualmente, nada impide que gigantes de la IA estadounidenses como OpenAI, respaldada por Microsoft, Google DeepMind, de Alphabet, y su rival Anthropic, que han desarrollado algunos de los modelos de IA de código cerrado más potentes, los vendan a casi cualquier persona del mundo sin supervisión gubernamental.

A los investigadores del gobierno y del sector privado les preocupa que los adversarios de EE.UU. puedan utilizar los modelos, que minan enormes cantidades de texto e imágenes para resumir información y generar contenidos, para lanzar agresivos ciberataques o incluso crear potentes armas biológicas.

Para desarrollar un control de las exportaciones de modelos de IA, las fuentes dijeron que EE.UU. podría recurrir a un umbral contenido en una orden ejecutiva sobre IA emitida el pasado octubre que se basa en la cantidad de potencia informática que se necesita para entrenar un modelo. Cuando se alcanza ese nivel, un desarrollador debe informar de sus planes de desarrollo de modelos de IA y proporcionar los resultados de las pruebas al Departamento de Comercio.

Ese umbral de potencia informática podría convertirse en la base para determinar qué modelos de IA estarían sujetos a restricciones a la exportación, según dos funcionarios estadounidenses y otra fuente informada de las conversaciones. Se negaron a ser nombrados porque los detalles no se han hecho públicos.

Si se utiliza, probablemente sólo restringiría la exportación de modelos que aún no han salido al mercado, ya que no se cree que ninguno haya alcanzado el umbral todavía, aunque se considera que el Gemini Ultra de Google está cerca, según EpochAI, un instituto de investigación que sigue las tendencias de la IA.

La agencia está lejos de finalizar una propuesta de norma, subrayaron las fuentes. Pero el hecho de que se esté estudiando una medida de este tipo demuestra que el gobierno estadounidense está tratando de colmar lagunas en su esfuerzo por frustrar las ambiciones de Pekín en materia de IA, a pesar de los serios desafíos que plantea la imposición de un régimen regulador musculoso a esta tecnología en rápida evolución.

Mientras la administración Biden analiza la competencia con China y los peligros de la IA sofisticada, los modelos de IA "son obviamente una de las herramientas, uno de los potenciales puntos de estrangulamiento en los que hay que pensar aquí", dijo Peter Harrell, antiguo funcionario del Consejo de Seguridad Nacional. "Queda por ver si se puede, de hecho, desde el punto de vista práctico, convertirlo en un punto de estrangulamiento controlable desde el punto de vista de la exportación", añadió.

¿ARMAS BIOLÓGICAS Y CIBERATAQUES?

La comunidad de inteligencia estadounidense, los grupos de reflexión y los académicos están cada vez más preocupados por los riesgos que plantean los malos actores extranjeros que obtienen acceso a las capacidades avanzadas de la IA. Los investigadores de Gryphon Scientific y Rand Corporation señalaron que los modelos avanzados de IA pueden proporcionar información que podría ayudar a crear armas biológicas.

El Departamento de Seguridad Nacional dijo que los ciberactores probablemente utilizarían la IA para "desarrollar nuevas herramientas" que "permitan ciberataques a mayor escala, más rápidos, eficaces y evasivos" en su evaluación de la amenaza nacional de 2024.

Cualquier nueva norma de exportación podría dirigirse también a otros países, según una de las fuentes.

"La explosión potencial para el uso y la explotación [de la IA] es radical y en realidad nos está costando mucho seguirla", dijo Brian Holmes, funcionario de la Oficina del Director de Inteligencia Nacional, en una reunión sobre control de exportaciones celebrada en marzo, señalando el avance de China como una preocupación particular.

CRACKDOWN DE IA

Para hacer frente a estas preocupaciones, EE.UU. ha tomado medidas para frenar el flujo de chips de IA estadounidenses y de las herramientas para fabricarlos hacia China.

También propuso una norma para exigir a las empresas estadounidenses de la nube que informen al gobierno cuando clientes extranjeros utilicen sus servicios para entrenar potentes modelos de IA que podrían utilizarse para ciberataques.

Pero hasta ahora no ha abordado los modelos de IA en sí. Alan Estevez, que supervisa la política de exportación de EE.UU. en el Departamento de Comercio, dijo en diciembre que la agencia estaba estudiando opciones para regular las exportaciones de grandes modelos de lenguaje (LLM) de código abierto antes de buscar la opinión de la industria.

Tim Fist, experto en política de IA del grupo de reflexión CNAS, con sede en Washington DC, afirma que el umbral "es una buena medida temporal hasta que desarrollemos mejores métodos para medir las capacidades y los riesgos de los nuevos modelos."

El umbral no está grabado en piedra. Una de las fuentes dijo que el Departamento de Comercio podría acabar con un umbral más bajo, unido a otros factores, como el tipo de datos o los usos potenciales del modelo de IA, como la capacidad de diseñar proteínas que podrían utilizarse para fabricar un arma biológica.

Independientemente del umbral, las exportaciones de modelos de IA serán difíciles de controlar. Muchos modelos son de código abierto, lo que significa que quedarían fuera del alcance de los controles a la exportación que se están considerando.

Incluso imponer controles a los modelos patentados más avanzados resultará difícil, ya que los reguladores probablemente tendrán dificultades para definir los criterios adecuados para determinar qué modelos deben controlarse en absoluto, dijo Fist, señalando que China probablemente sólo lleva unos dos años de retraso con respecto a Estados Unidos en el desarrollo de su propio software de IA.