La administración Biden está a punto de abrir un nuevo frente en su esfuerzo por salvaguardar la IA estadounidense frente a China y Rusia con planes preliminares para colocar barreras de protección en torno a los modelos de IA más avanzados, el software central de sistemas de inteligencia artificial como ChatGPT, según fuentes consultadas.

El Departamento de Comercio está considerando un nuevo impulso normativo para restringir la exportación de modelos de IA patentados o de código cerrado, cuyo software y los datos con los que se entrena se mantienen en secreto, dijeron tres personas familiarizadas con el asunto.

Cualquier acción complementaría una serie de medidas puestas en marcha en los dos últimos años para bloquear la exportación de sofisticados chips de IA a China, en un esfuerzo por frenar el desarrollo por parte de Pekín de esta tecnología punta con fines militares. Aun así, será difícil para los reguladores seguir el ritmo de los vertiginosos avances de la industria.

El Departamento de Comercio declinó hacer comentarios, mientras que la embajada rusa en Washington no respondió inmediatamente a una solicitud de comentarios. La embajada china describió la medida como un "típico acto de coacción económica e intimidación unilateral, al que China se opone firmemente", y añadió que tomaría las "medidas necesarias" para proteger sus intereses.

En la actualidad, nada impide que gigantes estadounidenses de la IA como OpenAI, respaldada por Microsoft, Google DeepMind, de Alphabet, y su rival Anthropic, que han desarrollado algunos de los modelos de IA de código cerrado más potentes, los vendan a casi cualquier persona del mundo sin supervisión gubernamental.

A los investigadores del gobierno y del sector privado les preocupa que los adversarios de EE.UU. puedan utilizar los modelos, que minan enormes cantidades de texto e imágenes para resumir información y generar contenidos, para lanzar agresivos ciberataques o incluso crear potentes armas biológicas.

Una de las fuentes dijo que cualquier nuevo control de las exportaciones se dirigiría probablemente a Rusia, China, Corea del Norte e Irán. Microsoft afirmó en un informe de febrero que había seguido la pista de grupos de piratas informáticos afiliados a los gobiernos chino y norcoreano, así como a la inteligencia militar rusa y a la Guardia Revolucionaria iraní, mientras intentaban perfeccionar sus campañas de piratería utilizando grandes modelos lingüísticos.

POTENCIA INFORMÁTICA

Para desarrollar un control de las exportaciones de modelos de IA, las fuentes dijeron que EE.UU. podría recurrir a un umbral contenido en una orden ejecutiva sobre IA emitida el pasado octubre que se basa en la cantidad de potencia informática que se necesita para entrenar un modelo. Cuando se alcanza ese nivel, un desarrollador debe informar de sus planes de desarrollo de modelos de IA y proporcionar los resultados de las pruebas al Departamento de Comercio.

Ese umbral de potencia informática podría convertirse en la base para determinar qué modelos de IA estarían sujetos a restricciones a la exportación, según dos funcionarios estadounidenses y otra fuente informada de las conversaciones. Se negaron a ser nombrados porque los detalles no se han hecho públicos.

Si se utiliza, probablemente sólo restringiría la exportación de modelos que aún no han salido al mercado, ya que no se cree que ninguno haya alcanzado el umbral todavía, aunque se considera que el Gemini Ultra de Google está cerca, según EpochAI, un instituto de investigación que sigue las tendencias de la IA.

La agencia está lejos de finalizar una propuesta de norma, subrayaron las fuentes. Pero el hecho de que se esté estudiando una medida de este tipo demuestra que el gobierno estadounidense está tratando de colmar lagunas en su esfuerzo por frustrar las ambiciones de Pekín en materia de IA, a pesar de los serios desafíos que plantea la imposición de un régimen regulador musculoso a esta tecnología en rápida evolución.

Mientras la administración Biden analiza la competencia con China y los peligros de la IA sofisticada, los modelos de IA "son obviamente una de las herramientas, uno de los potenciales puntos de estrangulamiento en los que hay que pensar aquí", dijo Peter Harrell, ex funcionario del Consejo de Seguridad Nacional. "Queda por ver si se puede, de hecho, desde el punto de vista práctico, convertirlo en un punto de estrangulamiento controlable desde el punto de vista de la exportación", añadió.

¿ARMAS BIOLÓGICAS Y CIBERATAQUES?

La comunidad de inteligencia estadounidense, los grupos de reflexión y los académicos están cada vez más preocupados por los riesgos que plantean los malos actores extranjeros que obtienen acceso a las capacidades avanzadas de la IA. Los investigadores de Gryphon Scientific y Rand Corporation señalaron que los modelos avanzados de IA pueden proporcionar información que podría ayudar a crear armas biológicas.

El Departamento de Seguridad Nacional dijo que los ciberactores probablemente utilizarían la IA para "desarrollar nuevas herramientas" que "permitan ciberataques a mayor escala, más rápidos, eficientes y evasivos" en su evaluación de la amenaza nacional de 2024.

"La explosión potencial para el uso y la explotación [de la IA] es radical y, en realidad, nos está costando mucho seguirla", dijo Brian Holmes, funcionario de la Oficina del Director de Inteligencia Nacional, en una reunión sobre control de exportaciones celebrada en marzo, señalando el avance de China como una preocupación particular.

CRACKDOWN DE IA

Para hacer frente a estas preocupaciones, EE.UU. ha tomado medidas para frenar el flujo de chips de IA estadounidenses y de las herramientas para fabricarlos hacia China.

También propuso una norma para exigir a las empresas estadounidenses de la nube que informen al gobierno cuando clientes extranjeros utilicen sus servicios para entrenar potentes modelos de IA que podrían utilizarse para ciberataques.

Pero hasta ahora no ha abordado los modelos de IA en sí. Alan Estevez, que supervisa la política de exportación de EE.UU. en el Departamento de Comercio, dijo en diciembre que la agencia estaba estudiando opciones para regular las exportaciones de grandes modelos de lenguaje (LLM) de código abierto antes de buscar la opinión de la industria.

Tim Fist, experto en política de IA del grupo de reflexión CNAS, con sede en Washington DC, afirma que el umbral "es una buena medida temporal hasta que desarrollemos mejores métodos para medir las capacidades y los riesgos de los nuevos modelos."

Jamil Jaffer, antiguo funcionario de la Casa Blanca y del Departamento de Justicia, dijo que la administración Biden no debería utilizar un umbral de potencia informática, sino optar por un control basado en las capacidades del modelo y el uso previsto. "Centrarse en el riesgo para la seguridad nacional más que en los umbrales tecnológicos es la mejor jugada, porque es más duradera y se centra en la amenaza", afirmó.

El umbral no está grabado en piedra. Una de las fuentes dijo que el Departamento de Comercio podría acabar con un umbral más bajo, unido a otros factores, como el tipo de datos o los usos potenciales del modelo de IA, como la capacidad de diseñar proteínas que podrían utilizarse para fabricar un arma biológica.

Independientemente del umbral, las exportaciones de modelos de IA serán difíciles de controlar. Muchos modelos son de código abierto, lo que significa que quedarían fuera del alcance de los controles a la exportación que se están considerando.

Incluso la imposición de controles sobre los modelos patentados más avanzados resultará un reto, ya que los reguladores probablemente tendrán dificultades para definir los criterios adecuados para determinar qué modelos deben ser controlados en absoluto, dijo Fist, señalando que China está probablemente sólo unos dos años por detrás de Estados Unidos en el desarrollo de su propio software de IA.

El control de las exportaciones que se está considerando afectaría al acceso al software backend que alimenta algunas aplicaciones de consumo como ChatGPT, pero no limitaría el acceso a las aplicaciones downstream propiamente dichas. (Reportaje de Alexandra Alper; Reportaje adicional de Karen Freifeld y Anna Tong; Edición de Chris Sanders y Anna Driver)