La unidad en la nube de Amazon.com dijo el miércoles que se ha asociado con la startup de inteligencia artificial Hugging Face para facilitar la ejecución de miles de modelos de IA en los chips informáticos personalizados de Amazon.

Valorada en 4.500 millones de dólares, Hugging Face se ha convertido en un eje central para que los investigadores y desarrolladores de IA compartan chatbots y otro software de IA y está respaldada por Amazon, Google de Alphabet y Nvidia, entre otros. Es el principal lugar al que acuden los desarrolladores para obtener y juguetear con modelos de IA de código abierto como Llama 3 de Meta Platforms.

Pero una vez que los desarrolladores han retocado un modelo de IA de código abierto suelen querer utilizarlo para impulsar una pieza de software. El miércoles, Amazon y Hugging Face dijeron que se habían asociado para que fuera posible hacerlo en un chip personalizado de Amazon Web Services (AWS) llamado Inferentia2.

"Una cosa que es muy importante para nosotros es la eficiencia: asegurarnos de que el mayor número posible de personas puedan ejecutar modelos y que puedan hacerlo de la manera más rentable", dijo Jeff Boudier, jefe de producto y crecimiento de Hugging Face.

Por su parte, AWS espera atraer a más desarrolladores de IA para que utilicen sus servicios en la nube para ofrecer IA. Mientras que Nvidia domina el mercado de los modelos de entrenamiento, AWS argumenta que sus chips pueden hacer funcionar después esos modelos entrenados -un proceso llamado inferencia- a un coste menor con el tiempo.

"Usted entrena estos modelos quizá una vez al mes. Pero usted puede estar ejecutando la inferencia contra ellos decenas de miles de veces por hora. Ahí es donde Inferentia2 realmente brilla", dijo Matt Wood, que supervisa los productos de inteligencia artificial en AWS. (Reportaje de Stephen Nellis en San Francisco; Edición de Michael Perry)