NVIDIA ha anunciado dos nuevos servicios de IA en la nube de grandes modelos lingüísticos — el Servicio de Grandes Modelos Lingüísticos NVIDIA NeMo y el Servicio LLM NVIDIA BioNeMo — que permiten a los desarrolladores adaptar fácilmente los LLM e implantar aplicaciones de IA personalizadas para la generación de contenidos, el resumen de textos, los chatbots, el desarrollo de códigos, así como la predicción de estructuras de proteínas y propiedades biomoleculares, entre otras cosas. El servicio NeMo LLM permite a los desarrolladores adaptar rápidamente una serie de modelos básicos preentrenados mediante un método de entrenamiento denominado aprendizaje rápido en la infraestructura gestionada por NVIDIA. El servicio BioNeMo de NVIDIA es una interfaz de programación de aplicaciones (API) en la nube que amplía los casos de uso de LLM más allá del lenguaje y los introduce en aplicaciones científicas para acelerar el descubrimiento de fármacos para las empresas farmacéuticas y biotecnológicas.

El servicio NeMo LLM aumenta la precisión con el aprendizaje rápido y acelera las implantaciones; Con el servicio NeMo LLM, los desarrolladores pueden utilizar sus propios datos de entrenamiento para personalizar modelos de base que van desde los 3.000 millones de parámetros hasta el Megatrón 530B, uno de los mayores LLM del mundo. El proceso dura entre minutos y horas, en comparación con las semanas o meses necesarios para entrenar un modelo desde cero. Los modelos se personalizan con el aprendizaje rápido, que utiliza una técnica llamada p-tuning. Esto permite a los desarrolladores utilizar sólo unos cientos de ejemplos para adaptar rápidamente los modelos de base que fueron entrenados originalmente con miles de millones de puntos de datos.

El proceso de personalización genera tokens de avisos específicos para cada tarea, que luego se combinan con los modelos básicos para ofrecer una mayor precisión y respuestas más relevantes para casos de uso específicos. Los desarrolladores pueden personalizar para múltiples casos de uso utilizando el mismo modelo y generar muchos tokens de aviso diferentes. Una función de patio de recreo ofrece una opción sin código para experimentar e interactuar fácilmente con los modelos, impulsando aún más la eficacia y la accesibilidad de los LLM para casos de uso específicos del sector.

Una vez listos para su despliegue, los modelos ajustados pueden ejecutarse en instancias en la nube, en sistemas locales o a través de una API. El servicio BioNeMo LLM permite a los investigadores aprovechar la potencia de los modelos masivos; El servicio BioNeMo LLM incluye dos nuevos modelos de lenguaje BioNeMo para aplicaciones de química y biología. Ofrece soporte para datos de proteínas, ADN y bioquímica para ayudar a los investigadores a descubrir patrones y conocimientos en las secuencias biológicas.

BioNeMo permite a los investigadores ampliar el alcance de su trabajo aprovechando modelos que contienen miles de millones de parámetros. Estos modelos más grandes pueden almacenar más información sobre la estructura de las proteínas, las relaciones evolutivas entre los genes e incluso generar nuevas biomoléculas para aplicaciones terapéuticas. La API en la nube proporciona acceso a Megatron 530B y a otros modelos ya hechos; Además de ajustar los modelos básicos, los servicios LLM incluyen la opción de utilizar modelos ya hechos y personalizados a través de una API en la nube.

Esto permite a los desarrolladores acceder a una amplia gama de LLM preentrenados, incluido el Megatron 530B. También proporciona acceso a los modelos T5 y GPT-3 creados con el marco NVIDIA NeMo Megatron — ya disponible en beta abierta — para dar soporte a una amplia gama de aplicaciones y requisitos de servicios multilingües. Empresas líderes en los sectores de la automoción, la informática, la educación, la sanidad y las telecomunicaciones, entre otros, están utilizando NeMo Megatron para ofrecer servicios pioneros a sus clientes en chino, inglés, coreano y sueco, entre otros idiomas.