Arteris, Inc. ha anunciado que NeuReality ha desplegado la IP de interconexión FlexNoC de Arteris como parte del servidor-en-un-chip de inferencia direccionable en red NR1 para ofrecer mejoras de alto rendimiento, coste disruptivo y consumo energético para el cálculo de aprendizaje automático y profundo en sus productos de inferencia de IA. Esta integración está arquitecturada en un NoC de 8 jerarquías con un ancho de banda agregado de 4,5TB/seg, que cumple los requisitos de baja latencia para ejecutar aplicaciones de IA a escala y menor coste. El servidor de inferencia NeuReality está dirigido a la IA Generativa, los Grandes Modelos de Lenguaje (LLM) y otras cargas de trabajo de IA.

El innovador servidor-en-un-chip NR1 de NeuReality, es la primera Unidad de Procesamiento Direccionable por Red (NAPU), que es un dispositivo de hardware optimizado para el flujo de trabajo con unidades de procesamiento especializadas, red nativa y capacidades de virtualización. Proporciona una red nativa de IA sobre tejido, incluida la descarga completa de canalizaciones de IA y capacidades de hipervisor de IA basadas en hardware. La capacidad de descargar CPU, GPU e incluso aceleradores de aprendizaje profundo en varios chips NR1 es lo que hace posible que el servidor de inferencia de NeuReality ofrezca efectivamente hasta 10 veces más rendimiento con menos consumo de energía y a una fracción del coste en su servidor de inferencia.