El lunes, en el escenario, la compañía Apple, dirigida por Tim Cook, anunció un sonado acuerdo con OpenAI para incluir su potente modelo de inteligencia artificial como parte de su asistente de voz, Siri.

Pero en la letra pequeña de un documento técnico que Apple publicó tras el evento, la compañía deja claro que Google, de Alphabet, ha surgido como otro ganador en la búsqueda de la empresa de Cupertino, California, para ponerse al día en IA.

Para construir los modelos básicos de IA de Apple, los ingenieros de la compañía utilizaron su propio marco de software con una serie de hardware, concretamente sus propias unidades de procesamiento gráfico (GPU) y chips disponibles únicamente en la nube de Google denominados unidades de procesamiento tensorial (TPU).

Google ha estado construyendo TPUs durante aproximadamente 10 años, y ha discutido públicamente dos sabores de sus chips de quinta generación que se pueden utilizar para el entrenamiento de IA; la versión de rendimiento de la quinta generación ofrece un rendimiento competitivo con los chips de IA Nvidia H100, dijo Google.

Google anunció en su conferencia anual de desarrolladores que este año se lanzará una sexta generación.

Los procesadores están diseñados específicamente para ejecutar aplicaciones de IA y entrenar modelos, y Google ha construido una plataforma de hardware y software de computación en nube en torno a ellos.

Apple y Google no devolvieron inmediatamente las solicitudes de comentarios.

Apple no habló del grado en que confió en los chips y el software de Google en comparación con el hardware de Nvidia o de otros proveedores de IA.

Pero el uso de los chips de Google suele requerir que el cliente adquiera acceso a ellos a través de su división en la nube, de forma muy similar a como los clientes compran tiempo de computación a AWS de Amazon.com o Azure de Microsoft. (Reportaje de Max A. Cherney; Edición de Sandra Maler)