Confluent, Inc. ha anunciado un nuevo nivel de capacidades para Stream Governance, la única suite de gobernanza totalmente gestionada del sector para Apache Kafka® y los datos en movimiento. Con Stream Governance Advanced, las organizaciones pueden resolver los problemas dentro de las canalizaciones complejas más fácilmente con el linaje de punto en tiempo, descubrir y comprender los temas más rápidamente con los metadatos empresariales y hacer cumplir los controles de calidad a nivel global con Schema Registry. Con más equipos capaces de acceder con seguridad y confianza a los flujos de datos, las organizaciones pueden crear aplicaciones críticas más rápidamente.

Los casos de uso de los flujos de datos están creciendo rápidamente a medida que los datos en tiempo real impulsan más el negocio. Esto ha provocado una proliferación de datos que tiene un valor empresarial infinito si los equipos son capaces de compartirlos con confianza en toda la organización. Basándose en el conjunto de características introducidas inicialmente con Stream Governance Essentials, Stream Governance Advanced ofrece más formas de descubrir, comprender y confiar en los datos en movimiento.

Con controles de calidad escalables, las organizaciones pueden democratizar el acceso a los flujos de datos en todos los equipos, al tiempo que logran la integridad de los datos y el cumplimiento de la normativa de forma permanente. Las nuevas capacidades incluyen: Reproducciones puntuales para Stream Lineage: La resolución de problemas de flujos de datos complejos es ahora más rápida y fácil con la capacidad de entender dónde, cuándo y cómo han cambiado los flujos de datos a lo largo del tiempo. El linaje de punto en tiempo proporciona una mirada hacia atrás en la historia de un flujo de datos durante un período de 24 horas o dentro de cualquier ventana de una hora en un rango de siete días.

Los equipos pueden ver ahora lo que ocurrió, por ejemplo, el jueves a las 17 horas, cuando empezaron a llegar las solicitudes de asistencia. Junto con la nueva capacidad de buscar en los gráficos de linaje objetos específicos, como los ID de los clientes o los temas, el linaje en un momento dado facilita la identificación y la resolución de problemas para mantener los servicios de misión crítica en funcionamiento para los clientes y los nuevos proyectos en vías de despliegue. Metadatos empresariales para Stream Catalog: Mejore el descubrimiento de datos con la capacidad de construir catálogos de flujos de datos más contextuales y ricos en detalles. Junto con el etiquetado de objetos disponible anteriormente, los metadatos empresariales ofrecen a los usuarios individuales la posibilidad de añadir detalles personalizados de forma abierta representados como pares clave-valor a las entidades que crean, como los temas.

Estos detalles, procedentes de los usuarios que mejor conocen la plataforma, son fundamentales para permitir el acceso de autoservicio a los datos para la organización en general. Mientras que el etiquetado ha permitido a los usuarios marcar un tema como “sensible,” los metadatos de negocio permiten a ese usuario añadir más contexto, como qué equipo es el propietario del tema, cómo se está utilizando, a quién dirigirse con preguntas sobre los datos, o cualquier otro detalle necesario. Explorar el catálogo es ahora aún más fácil con la API GraphQL, que ofrece a los usuarios un método sencillo y declarativo para especificar y obtener los datos exactos que necesitan, al tiempo que permite comprender mejor las relaciones de los datos en la plataforma.

Registro de esquemas disponible a nivel mundial para la calidad del flujo: Al duplicar con creces la disponibilidad global de Schema Registry a 28 regiones, los equipos tienen más flexibilidad para gestionar los esquemas directamente junto a sus clusters de Kafka con el fin de mantener los estrictos requisitos de cumplimiento y la soberanía de los datos. Además, Schema Registry es aún más resistente con un acuerdo de nivel de servicio del 99,95 % de tiempo de actividad, lo que da a las empresas la confianza que necesitan de que los controles de calidad para Kafka estarán siempre presentes a medida que más grupos empiecen a trabajar con la tecnología.