Red Hat, Inc. el lanzamiento de Red Hat Enterprise Linux AI (RHEL AI), una plataforma de modelos de base que permite a los usuarios desarrollar, probar e implantar modelos de IA generativa (GenAI) de forma más fluida. RHEL AI reúne la familia Granite large language model (LLM) con licencia de código abierto de IBM Research, las herramientas de alineación de modelos de InstructLab basadas en la metodología LAB (Large-scale Alignment for chatBots) y un enfoque impulsado por la comunidad para el desarrollo de modelos a través del proyecto InstructLab. Toda la solución se empaqueta como una imagen RHEL optimizada y arrancable para implementaciones de servidores individuales en la nube híbrida y también se incluye como parte de OpenShift AI, la plataforma híbrida de operaciones de aprendizaje automático (MLOps) de Red Hat, para ejecutar modelos e InstructLab a escala en entornos de clústeres distribuidos.

El lanzamiento de ChatGPT generó un enorme interés en GenAI, y el ritmo de la innovación no ha hecho más que acelerarse desde entonces. Las empresas han empezado a pasar de las primeras evaluaciones de los servicios de GenAI a la creación de aplicaciones habilitadas para la IA. Un ecosistema en rápido crecimiento de opciones de modelos abiertos ha estimulado una mayor innovación en IA y ha ilustrado que no habrá "un modelo que los gobierne a todos".

Los clientes se beneficiarán de un abanico de opciones para abordar requisitos específicos, todo lo cual se acelerará aún más gracias a un enfoque abierto de la innovación. La aplicación de una estrategia de IA requiere algo más que la simple selección de un modelo; las organizaciones tecnológicas necesitan los conocimientos necesarios para ajustar un modelo determinado a su caso de uso específico, así como hacer frente a los importantes costes de la aplicación de la IA. A la escasez de competencias en ciencia de datos se suman importantes requisitos financieros, entre ellos: La adquisición de infraestructura de IA o el consumo de servicios de IA El complejo proceso de ajuste de los modelos de IA a las necesidades empresariales específicas La integración de la IA en las aplicaciones empresariales La gestión del ciclo de vida tanto de la aplicación como del modelo.

Para reducir realmente las barreras de entrada a la innovación en IA, las empresas necesitan poder ampliar la lista de personas que pueden trabajar en iniciativas de IA y, al mismo tiempo, controlar estos costes. Con las herramientas de alineación InstructLab, los modelos Granite y RHEL AI, Red Hat pretende aplicar a GenAI las ventajas de los verdaderos proyectos de código abierto -de libre acceso y reutilizables, transparentes y abiertos a las contribuciones- en un esfuerzo por eliminar estos obstáculos. IBM Research creó la técnica Large-scale Alignment for chatBots (LAB), un enfoque para la alineación de modelos que utiliza la generación de datos sintéticos guiada por taxonomías y un novedoso marco de ajuste multifase.

Este enfoque hace que el desarrollo de modelos de IA sea más abierto y accesible para todos los usuarios al reducir la dependencia de costosas anotaciones humanas y de modelos patentados. Con el método LAB, los modelos pueden mejorarse especificando las habilidades y los conocimientos vinculados a una taxonomía, generando datos sintéticos a partir de esa información a escala para influir en el modelo y utilizando los datos generados para el entrenamiento del modelo. Tras comprobar que el método LAB podía ayudar a mejorar significativamente el rendimiento de los modelos, IBM y Red Hat decidieron lanzar InstructLab, una comunidad de código abierto creada en torno al método LAB y a los modelos Granite de código abierto de IBM.

El proyecto InstructLab pretende poner el desarrollo de LLM en manos de los desarrolladores haciendo que, construir y contribuir a un LLM sea tan sencillo como contribuir a cualquier otro proyecto de código abierto. Como parte del lanzamiento de InstructLab, IBM también ha liberado en abierto una familia de modelos Granite seleccionados de lengua inglesa y código. Estos modelos se liberan bajo una licencia Apache con transparencia sobre los conjuntos de datos utilizados para entrenar estos modelos.

El modelo de lengua inglesa Granite 7B se ha integrado en la comunidad InstructLab, donde los usuarios finales pueden aportar sus habilidades y conocimientos para mejorar colectivamente este modelo, igual que harían al contribuir a cualquier otro proyecto de código abierto. Pronto estará disponible un soporte similar para los modelos de código Granite dentro de InstructLab. RHEL AI se basa en este enfoque abierto de la innovación en IA, incorporando una versión preparada para la empresa del proyecto InstructLab y el lenguaje y los modelos de código Granite junto con la plataforma Linux empresarial líder en el mundo para simplificar el despliegue en un entorno de infraestructura híbrida.

Esto crea una plataforma de modelos de base para llevar a la empresa los modelos GenAI con licencia de código abierto. RHEL AI incluye: Lenguaje y modelos de código Granite con licencia de código abierto que cuentan con el soporte y la indemnización de Red Hat. Una distribución de InstructLab con soporte y ciclo de vida que proporciona una solución escalable y rentable para mejorar las capacidades de LLM y hacer accesibles las aportaciones de conocimientos y habilidades a una gama mucho más amplia de usuarios.

Instancias de tiempo de ejecución de modelos de arranque optimizadas con modelos Granite y paquetes de herramientas InstructLab como imágenes RHEL de arranque a través del modo de imagen RHEL, incluidas bibliotecas de tiempo de ejecución Pytorch optimizadas y aceleradores para AMD Instinct? MI300X, GPU de Intel y NVIDIA y marcos NeMo. La completa promesa de soporte y ciclo de vida empresarial de Red Hat que comienza con una distribución de productos empresariales de confianza, soporte de producción 24x7 y soporte de ciclo de vida ampliado.

A medida que las organizaciones experimentan y ajustan nuevos modelos de IA en RHEL AI, disponen de una rampa de acceso lista para escalar estos flujos de trabajo con Red Hat OpenShift AI, que incluirá RHEL AI, y donde pueden aprovechar el motor Kubernetes de OpenShift para entrenar y servir modelos de IA a escala y las capacidades MLOps integradas de OpenShift AI para gestionar el ciclo de vida del modelo. El estudio empresarial watsonx.ai de IBM, que actualmente se basa en Red Hat OpenShift AI, se beneficiará de la inclusión de RHEL AI en OpenShift AI cuando esté disponible, lo que aportará capacidades adicionales para el desarrollo de IA empresarial, la gestión de datos, la gobernanza de modelos y un mejor rendimiento de precios.