Confluent, Inc. ha anunciado el lanzamiento del primer trimestre 22 de Confluent, que incluye nuevas incorporaciones a la mayor cartera del sector de conectores de streaming de datos totalmente gestionados, nuevos controles para escalar de forma rentable clústeres de Apache Kafka de rendimiento masivo y una nueva función para ayudar a mantener la calidad de los datos de confianza en entornos globales. Estas innovaciones ayudan a permitir un flujo de datos sencillo, escalable y fiable en toda la empresa, para que cualquier organización pueda ofrecer las operaciones en tiempo real y las experiencias de los clientes necesarias para tener éxito en un mundo digital. Sin embargo, para muchas organizaciones, los datos en tiempo real siguen estando fuera de su alcance. Los datos viven en silos, atrapados en diferentes sistemas y aplicaciones, porque las integraciones tardan meses en construirse y requieren importantes recursos para su gestión. Además, adaptar la capacidad de streaming para satisfacer las necesidades empresariales en constante cambio es un proceso complejo que puede suponer un gasto excesivo en infraestructura. Por último, garantizar la calidad y el cumplimiento de los datos a escala global es una hazaña técnica complicada, que suele requerir una estrecha coordinación entre equipos de expertos en Kafka. Los conectores más recientes de Confluent incluyen Azure Synapse Analytics, Amazon DynamoDB, Databricks Delta Lake, Google BigTable y Redis para aumentar la cobertura de fuentes y destinos de datos populares. Disponible únicamente en Confluent Cloud, la cartera de Confluents de más de 50 conectores totalmente gestionados ayuda a las organizaciones a crear potentes aplicaciones de streaming y a mejorar la portabilidad de los datos. Estos conectores, diseñados con la profunda experiencia de Confluents en Kafka, proporcionan a las organizaciones un camino fácil para modernizar los almacenes de datos, las bases de datos y los lagos de datos con canalizaciones de datos en tiempo real: Conectores de almacén de datos: Snowflake, Google BigQuery, Azure Synapse Analytics, Amazon Redshift Conectores de bases de datos: MongoDB Atlas, PostgreSQL, MySQL, Microsoft SQL Server, Azure Cosmos DB, Amazon DynamoDB, Oracle Database, Redis, Google BigTable Conectores de lago de datos: Amazon S3, Google Cloud Storage, Azure Blob Storage, Azure Data Lake Storage Gen 2, Databricks Delta Lake Para simplificar la visibilidad en tiempo real del estado de las aplicaciones y los sistemas, Confluent ha anunciado integraciones de primera clase con Datadog y Prometheus. Con unos pocos clics, los operadores tienen una visibilidad más profunda y completa de Confluent Cloud dentro de las herramientas de monitorización que ya utilizan. Esto proporciona un medio más fácil de identificar, resolver y evitar cualquier problema que pueda surgir, al tiempo que les devuelve un tiempo valioso para todo lo demás que exigen sus trabajos. Para garantizar que los servicios estén siempre disponibles, muchas empresas se ven obligadas a sobreaprovisionar la capacidad de sus clústeres de Kafka, pagando un precio elevado por el exceso de infraestructura que a menudo no se utiliza. Confluent resuelve este problema común con clústeres dedicados que pueden aprovisionarse bajo demanda con sólo unos pocos clics e incluyen controles de autoservicio para añadir y eliminar capacidad a escala de rendimiento de más de GBps. La capacidad es fácil de ajustar en cualquier momento a través de la interfaz de usuario de Confluent Cloud, la CLI o la API. Con el equilibrio de datos automático, estos clústeres optimizan constantemente la colocación de los datos para equilibrar la carga sin ningún esfuerzo adicional. Además, las protecciones de capacidad mínima evitan que los clústeres se reduzcan a un punto inferior al necesario para soportar el tráfico activo. Junto con la nueva API de métrica de carga de Confluents, las organizaciones pueden tomar decisiones informadas sobre cuándo ampliar y cuándo reducir la capacidad con una visión en tiempo real de la utilización de sus clústeres. Con este nuevo nivel de escalabilidad elástica, las empresas pueden ejecutar sus cargas de trabajo de mayor rendimiento con alta disponibilidad, simplicidad operativa y rentabilidad. Los controles globales de calidad de los datos son fundamentales para mantener un despliegue de Kafka altamente compatible y adecuado para un uso estandarizado a largo plazo en toda la organización. Con Schema Linking, las empresas disponen ahora de una forma sencilla de mantener flujos de datos fiables en la nube y en entornos híbridos con esquemas compartidos que se sincronizan en tiempo real. Junto con Cluster Linking, los esquemas se comparten en todos los lugares en los que se necesitan, proporcionando un medio fácil de mantener una alta integridad de los datos mientras se despliegan casos de uso que incluyen el intercambio de datos globales, las migraciones de clústeres y los preparativos para la conmutación por error en tiempo real en caso de recuperación de desastres.