Los últimos chips de memoria de alto ancho de banda (HBM) de Samsung Electronics aún no han superado las pruebas de Nvidia para su uso en los procesadores de inteligencia artificial de la firma estadounidense debido a problemas de calor y consumo de energía, según afirmaron tres personas informadas al respecto.

Los problemas afectan a los chips HBM3 de Samsung, que son el estándar HBM de cuarta generación más utilizado actualmente en las unidades de procesamiento gráfico (GPU) para inteligencia artificial, así como a los chips HBM3E de quinta generación que el gigante tecnológico surcoreano y sus rivales están sacando al mercado este año, señalaron.

Se informa por primera vez de las razones por las que Samsung no superó las pruebas de Nvidia.

Samsung dijo en una declaración a Reuters que la HBM es un producto de memoria personalizado que requiere "procesos de optimización a la par de las necesidades de los clientes", y añadió que está en proceso de optimizar sus productos mediante una estrecha colaboración con los clientes. Declinó hacer comentarios sobre clientes concretos.

Nvidia declinó hacer comentarios.

La HBM -un tipo de memoria dinámica de acceso aleatorio o DRAM estándar producido por primera vez en 2013 en el que los chips se apilan verticalmente para ahorrar espacio y reducir el consumo de energía- ayuda a procesar cantidades masivas de datos producidos por aplicaciones complejas de IA. A medida que la demanda de sofisticadas GPU se ha disparado en medio del auge de la IA generativa, también lo ha hecho la demanda de HBM.

Satisfacer a Nvidia -que controla alrededor del 80% del mercado mundial de GPU para aplicaciones de IA- se considera clave para el crecimiento futuro de los fabricantes de HBM, tanto en términos de reputación como de impulso de los beneficios.

Samsung lleva intentando superar las pruebas de Nvidia para HBM3 y HBM3E desde el año pasado, según las tres fuentes. Según dos de ellas, los resultados de una reciente prueba fallida para los chips HBM3E de 8 y 12 capas de Samsung llegaron en abril.

No estaba claro de inmediato si los problemas pueden solucionarse fácilmente, pero las tres fuentes dijeron que los fallos en el cumplimiento de los requisitos de Nvidia han aumentado la preocupación en la industria y entre los inversores de que Samsung podría caer aún más detrás de sus rivales SK Hynix y Micron Technology en HBM.

Las fuentes, dos de las cuales fueron informadas sobre el asunto por funcionarios de Samsung, hablaron bajo condición de anonimato ya que la información era confidencial.

NUEVO JEFE DE LA UNIDAD DE CHIPS

A diferencia de Samsung, su rival nacional SK Hynix es el principal proveedor de chips HBM de Nvidia y suministra HBM3 desde junio de 2022. También comenzó a suministrar HBM3E a finales de marzo a un cliente que declinó identificar. Los envíos se destinaron a Nvidia, según las fuentes.

Micron, el único otro fabricante importante de HBM, también ha dicho que suministrará HBM3E a Nvidia.

En un movimiento que, según los analistas, parecía subrayar la preocupación de Samsung por su posición rezagada en HBM, Samsung sustituyó esta semana al jefe de su unidad de semiconductores diciendo que se necesitaba una nueva persona en la cúpula para navegar por lo que llamó una "crisis" que afecta a la industria.

Las expectativas del mercado han sido altas en cuanto a que Samsung, como mayor fabricante mundial de chips de memoria, superaría rápidamente las pruebas de Nvidia, pero también es natural que productos especializados como el HBM tarden algún tiempo en cumplir las evaluaciones de rendimiento de los clientes, dijo Jeff Kim, jefe de investigación de KB Securities.

Aunque Samsung aún no se ha convertido en proveedor de HBM3 para Nvidia, sí suministra a clientes como Advanced Micro Devices (AMD) y pretende comenzar la producción en masa de chips HBM3E en el segundo trimestre. Samsung afirmó en su declaración a Reuters que su calendario de productos avanza según lo previsto.

Los analistas también afirman que SK Hynix, que desarrolló el primer chip HBM en 2013, ha dedicado mucho más tiempo y recursos a la investigación y el desarrollo de HBM que Samsung en la última década, lo que explica su ventaja tecnológica.

Samsung afirmó en su comunicado que desarrolló la primera solución comercial de HBM para computación de alto rendimiento en 2015 y que ha seguido invirtiendo en HBM desde entonces.

Los fabricantes de GPU como Nvidia y AMD están muy interesados en que Samsung perfeccione sus chips HBM para tener más opciones de proveedores y debilitar el poder de fijación de precios de SK Hynix, dijeron también las fuentes.

En una conferencia de Nvidia sobre IA celebrada en marzo, el consejero delegado de Nvidia, Jensen Huang, firmó una pancarta en el stand de Samsung que decía "Jensen aprueba" la HBM3E de 12 capas de Samsung, lo que subraya el entusiasmo de la compañía ante la perspectiva de que Samsung suministre esos chips.

Es probable que los chips HBM3E se conviertan en el producto HBM dominante en el mercado este año y que los envíos se concentren en la segunda mitad de 2024, según la firma de investigación Trendforce.

Por otro lado, SK Hynix estima que la demanda de chips de memoria HBM en general podría aumentar a un ritmo anual del 82% hasta 2027.

Según los analistas, la posición relativamente débil de Samsung en HBM ha llamado la atención de los inversores. Sus acciones están planas en lo que va de año, mientras que las de SK Hynix suben un 41% y las de Micron un 48%. (1 dólar = 1.362,8600 won) (Reportaje de Heekyong Yang en Seúl y Fanny Potkin en Singapur; Reportaje adicional de Ju-min Park en Seúl y Max A. Cherney en San Francisco; Edición de Josh Smith y Edwina Gibbs)