Google ha diseñado su propio chip personalizado llamado Unidad de Procesamiento Tensorial, o TPU. Utiliza esos chips para más del 90% del trabajo de la empresa en el entrenamiento de inteligencia artificial, el proceso de alimentar datos a través de modelos para hacerlos útiles en tareas como responder a consultas con texto similar al humano o generar imágenes.

La TPU de Google se encuentra ya en su cuarta generación. Google publicó el martes un artículo científico en el que detalla cómo ha ensartado más de 4.000 de estos chips en un superordenador utilizando sus propios interruptores ópticos desarrollados a medida para ayudar a conectar las máquinas individuales.

Mejorar estas conexiones se ha convertido en un punto clave de la competencia entre las empresas que construyen superordenadores de IA porque los llamados grandes modelos lingüísticos que impulsan tecnologías como Bard de Google o ChatGPT de OpenAI se han disparado en tamaño, lo que significa que son demasiado grandes para almacenarlos en un solo chip.

En su lugar, los modelos deben repartirse entre miles de chips, que luego deben trabajar juntos durante semanas o más para entrenar el modelo. El modelo PaLM de Google - su mayor modelo lingüístico divulgado públicamente hasta la fecha - se entrenó dividiéndolo en dos de los superordenadores de 4.000 chips a lo largo de 50 días.

Google afirmó que sus superordenadores facilitan la reconfiguración de las conexiones entre chips sobre la marcha, lo que ayuda a evitar problemas y a realizar ajustes para aumentar el rendimiento.

"La conmutación de circuitos facilita el enrutamiento alrededor de componentes averiados", escribieron Norm Jouppi, miembro de Google, y David Patterson, ingeniero distinguido de Google, en una entrada de blog sobre el sistema. "Esta flexibilidad nos permite incluso cambiar la topología de la interconexión del superordenador para acelerar el rendimiento de un modelo ML (aprendizaje automático)".

Aunque Google no da a conocer hasta ahora los detalles de su superordenador, éste lleva en funcionamiento dentro de la empresa desde 2020 en un centro de datos del condado de Mayes, en Oklahoma. Google dijo que la startup Midjourney utilizó el sistema para entrenar su modelo, que genera imágenes frescas tras ser alimentado con unas pocas palabras de texto.

En el documento, Google afirmó que, para sistemas de tamaño comparable, su superordenador es hasta 1,7 veces más rápido y 1,9 veces más eficiente desde el punto de vista energético que un sistema basado en el chip A100 de Nvidia que estaba en el mercado al mismo tiempo que la TPU de cuarta generación.

Google dijo que no comparó su cuarta generación con el actual chip insignia H100 de Nvidia porque el H100 salió al mercado después que el chip de Google y está fabricado con una tecnología más reciente.

Google insinuó que podría estar trabajando en un nuevo TPU que compitiera con el H100 de Nvidia, pero no dio más detalles. Jouppi dijo a Reuters que Google tiene "una saludable cartera de futuros chips".