Tenían un problema espinoso: a pesar de las inversiones de alto perfil en la investigación de la IA, el gigante de los medios sociales había tardado en adoptar costosos sistemas de hardware y software compatibles con la IA para su negocio principal, lo que dificultaba su capacidad para seguir el ritmo de la innovación a escala, incluso a medida que dependía cada vez más de la IA para apoyar su crecimiento, según el memorando, declaraciones de la empresa y entrevistas con 12 personas familiarizadas con los cambios, que hablaron bajo condición de anonimato para discutir asuntos internos de la empresa.

"Tenemos una brecha significativa en nuestras herramientas, flujos de trabajo y procesos cuando se trata de desarrollar para la IA. Necesitamos invertir fuertemente aquí", decía el memorándum, escrito por el nuevo jefe de infraestructura Santosh Janardhan, que se publicó en el tablón de mensajes interno de Meta en septiembre y del que se informa ahora por primera vez.

Apoyar el trabajo de IA requeriría que Meta "cambiara fundamentalmente el diseño de nuestra infraestructura física, nuestros sistemas de software y nuestro enfoque para proporcionar una plataforma estable", añadía.

Durante más de un año, Meta ha estado inmersa en un proyecto masivo para poner a punto su infraestructura de IA. Aunque la empresa ha reconocido públicamente estar "jugando un poco a ponerse al día" en las tendencias de hardware de IA, no se había informado previamente de los detalles de la revisión, que incluyen recortes de capacidad, cambios de liderazgo y un proyecto de chip de IA desechado.

Preguntado por el memorándum y la reestructuración, el portavoz de Meta, Jon Carvill, dijo que la empresa "tiene un historial probado en la creación y despliegue de infraestructura de vanguardia a escala combinada con una profunda experiencia en investigación e ingeniería de IA".

"Confiamos en nuestra capacidad para seguir ampliando las capacidades de nuestra infraestructura para satisfacer nuestras necesidades a corto y largo plazo a medida que aportamos nuevas experiencias impulsadas por la IA a nuestra familia de aplicaciones y productos de consumo", dijo Carvill. Se negó a comentar si Meta había abandonado su chip de IA.

Janardhan y otros ejecutivos no accedieron a las solicitudes de entrevistas realizadas a través de la empresa.

La revisión disparó los gastos de capital de Meta en unos 4.000 millones de dólares trimestrales, según las revelaciones de la empresa -casi el doble de su gasto a partir de 2021- y la llevó a pausar o cancelar construcciones de centros de datos previamente planificadas en cuatro ubicaciones.

Gráfico: El aumento del capex de Meta - https://www.reuters.com/graphics/METAPLATFORMS-ARTIFICIALINTELLIGENCE/dwvkdldgkpm/chart.png

Esas inversiones han coincidido con un periodo de graves aprietos financieros para Meta, que lleva despidiendo empleados desde noviembre a una escala no vista desde la quiebra de las puntocom.

Mientras tanto, ChatGPT de OpenAI, respaldada por Microsoft, se disparó hasta convertirse en la aplicación de consumo de más rápido crecimiento de la historia tras su debut el 30 de noviembre, desencadenando una carrera armamentística entre los gigantes tecnológicos para lanzar productos que utilicen la llamada IA generativa, que, más allá de reconocer patrones en los datos como otras IA, crea contenidos escritos y visuales similares a los humanos en respuesta a las indicaciones.

La IA generativa engulle resmas de potencia informática, lo que amplifica la urgencia de la lucha por la capacidad de Meta, dijeron cinco de las fuentes.

QUEDÁNDOSE ATRÁS

Una fuente clave del problema, según esas cinco fuentes, se remonta a la tardía adopción por parte de Meta de la unidad de procesamiento gráfico, o GPU, para el trabajo de IA.

Los chips de GPU son especialmente adecuados para el procesamiento de inteligencia artificial porque pueden realizar un gran número de tareas simultáneamente, lo que reduce el tiempo necesario para procesar miles de millones de datos.

Sin embargo, las GPU también son más caras que otros chips, y el fabricante de chips Nvidia Corp controla el 80% del mercado y mantiene un liderazgo dominante en el software de acompañamiento, dijeron las fuentes.

Nvidia no respondió a una solicitud de comentarios para este reportaje.

En su lugar, hasta el año pasado, Meta ejecutaba en gran medida las cargas de trabajo de IA utilizando la flota de unidades centrales de procesamiento (CPU) commodity de la compañía, el chip caballo de batalla del mundo informático, que ha llenado los centros de datos durante décadas pero que realiza mal el trabajo de IA.

Según dos de esas fuentes, la empresa también empezó a utilizar su propio chip personalizado que había diseñado internamente para la inferencia, un proceso de IA en el que los algoritmos entrenados en enormes cantidades de datos emiten juicios y generan respuestas a las indicaciones.

En 2021, ese doble enfoque demostró ser más lento y menos eficiente que otro basado en las GPU, que también eran más flexibles a la hora de ejecutar distintos tipos de modelos que el chip de Meta, señalaron las dos personas.

Meta declinó hacer comentarios sobre el rendimiento de su chip de IA.

A medida que Zuckerberg hacía pivotar a la empresa hacia el metaverso -un conjunto de mundos digitales habilitados por la realidad aumentada y virtual-, su escasez de capacidad estaba ralentizando su capacidad de desplegar IA para responder a las amenazas, como el auge del rival de las redes sociales TikTok y los cambios en la privacidad de los anuncios impulsados por Apple, dijeron cuatro de las fuentes.

Los tropiezos llamaron la atención de Peter Thiel, antiguo miembro del consejo de Meta, que dimitió a principios de 2022, sin dar explicaciones.

En una reunión de la junta antes de irse, Thiel dijo a Zuckerberg y a sus ejecutivos que eran complacientes con el negocio principal de medios sociales de Meta mientras se centraban demasiado en el metaverso, lo que, según él, dejaba a la empresa vulnerable al desafío de TikTok, según dos fuentes familiarizadas con el intercambio.

Meta declinó hacer comentarios sobre la conversación.

CATCH-UP

Después de tirar del enchufe en un despliegue a gran escala del propio chip de inferencia personalizado de Meta, que estaba previsto para 2022, los ejecutivos en su lugar invirtieron el curso y realizaron pedidos ese año por valor de miles de millones de dólares en GPUs Nvidia, dijo una fuente.

Meta declinó hacer comentarios sobre el pedido.

Para entonces, Meta ya estaba varios pasos por detrás de pares como Google, que había comenzado a desplegar su propia versión personalizada de GPU, llamada TPU, en 2015.

Los ejecutivos también se pusieron esa primavera a reorganizar las unidades de IA de Meta, nombrando a dos nuevos jefes de ingeniería en el proceso, incluido Janardhan, el autor de la nota de septiembre.

Más de una docena de ejecutivos abandonaron Meta durante la agitación que duró meses, según sus perfiles de LinkedIn y una fuente familiarizada con las salidas, un cambio casi al por mayor del liderazgo de la infraestructura de IA.

A continuación, Meta comenzó a reajustar sus centros de datos para acomodar las GPU entrantes, que consumen más energía y producen más calor que las CPU, y que deben agruparse estrechamente con redes especializadas entre ellas.

Gráfico: Estado de los centros de datos de Meta en EE.UU. - https://www.reuters.com/graphics/METAPLATFORMS-ARTIFICIALINTELLIGENCE/mopakdkmzpa/chart.png

Las instalaciones necesitaban entre 24 y 32 veces más capacidad de red y nuevos sistemas de refrigeración líquida para gestionar el calor de los clusters, lo que exigía "rediseñarlas por completo", según la nota de Janardhan y cuatro fuentes familiarizadas con el proyecto, cuyos detalles no se han revelado previamente.

A medida que el trabajo se ponía en marcha, Meta hizo planes internos para empezar a desarrollar un nuevo y más ambicioso chip interno que, al igual que una GPU, sería capaz tanto de entrenar modelos de IA como de realizar inferencias. El proyecto, del que no se ha informado anteriormente, finalizará en torno a 2025, según dos fuentes.

Carvill, el portavoz de Meta, dijo que la construcción de centros de datos que se detuvo durante la transición a los nuevos diseños se reanudaría a finales de este año. Declinó hacer comentarios sobre el proyecto del chip.

INTERCAMBIOS

Mientras aumenta su capacidad de GPU, Meta, por ahora, ha tenido poco que mostrar mientras competidores como Microsoft y Google promueven lanzamientos públicos de productos comerciales de IA generativa.

La directora financiera Susan Li reconoció en febrero que Meta no estaba dedicando gran parte de su computación actual al trabajo generativo, afirmando que "básicamente toda nuestra capacidad de IA se está destinando a anuncios, feeds y Reels", su formato de vídeo corto similar a TikTok que es popular entre los usuarios más jóvenes.

Según cuatro de las fuentes, Meta no dio prioridad a la creación de productos de IA generativa hasta después del lanzamiento de ChatGPT en noviembre. Aunque su laboratorio de investigación FAIR, o Facebook AI Research, lleva publicando prototipos de la tecnología desde finales de 2021, la empresa no estaba centrada en convertir su bien considerada investigación en productos, dijeron.

A medida que se dispara el interés de los inversores, eso está cambiando. Zuckerberg anunció en febrero un nuevo equipo de IA generativa de alto nivel que, según dijo, "turboalimentaría" el trabajo de la empresa en el área.

El director de tecnología, Andrew Bosworth, dijo igualmente este mes que la IA generativa era el área a la que él y Zuckerberg estaban dedicando más tiempo, y pronosticó que Meta lanzaría un producto este año.

Dos personas familiarizadas con el nuevo equipo dijeron que su trabajo se encontraba en las primeras fases y se centraba en construir un modelo base, un programa básico que más tarde se puede afinar y adaptar para diferentes productos.

Carvill, el portavoz de Meta, dijo que la empresa lleva más de un año construyendo productos de IA generativa en diferentes equipos. Confirmó que el trabajo se ha acelerado en los meses transcurridos desde la llegada de ChatGPT.