Alphabet presentó el miércoles su modelo de inteligencia artificial más avanzado, una tecnología capaz de procesar diferentes formas de información como vídeo, audio y texto.

Denominado Gemini, el esperado modelo de IA del propietario de Google es capaz de razonar de forma más sofisticada y comprender la información con un mayor grado de matiz que la tecnología anterior de Google, según informó la empresa.

"Esta nueva era de modelos representa uno de los mayores esfuerzos de ciencia e ingeniería que hemos emprendido como empresa", escribió el consejero delegado de Alphabet, Sundar Pichai, en una entrada de blog.

Desde el lanzamiento del ChatGPT de OpenAI hace aproximadamente un año, Google se ha apresurado a producir un software de IA que rivalice con el que ha presentado la empresa respaldada por Microsoft.

El miércoles, Google incorporó una parte de la tecnología del nuevo modelo Gemini a su asistente de IA Bard, y dijo que planeaba lanzar su versión más avanzada de Gemini a través de Bard a principios del próximo año.

Alphabet dijo que está fabricando tres versiones de Gemini, cada una de las cuales está diseñada para utilizar una cantidad diferente de potencia de procesamiento. La versión más potente está diseñada para funcionar en centros de datos, y la más pequeña funcionará eficazmente en dispositivos móviles, dijo la empresa.

Géminis es el modelo de IA más grande que la unidad de IA Google DeepMind de la empresa ha ayudado a fabricar, pero es "significativamente" más barato de servir a los usuarios que los modelos anteriores más grandes de la empresa, dijo a la prensa el vicepresidente de producto de DeepMind, Eli Collins.

"Así que no sólo es más capaz, también es mucho más eficiente", dijo Collins. El último modelo sigue necesitando una cantidad considerable de potencia de cálculo para entrenarse, pero Google está mejorando su proceso, añadió.

Alphabet también anunció una nueva generación de sus chips de IA hechos a medida, o unidades de procesamiento tensorial (TPU). La TPU Cloud v5p está diseñada para entrenar grandes modelos de IA, y está cosida en vainas de 8.960 chips.

La nueva versión de sus procesadores cliente puede entrenar grandes modelos lingüísticos casi tres veces más rápido que las generaciones anteriores. Los nuevos chips están disponibles para los desarrolladores en "vista previa" a partir del miércoles, dijo la compañía. (Informes de Max A. Cherney y Stephen Nellis en San Francisco; Edición de Jamie Freed)