Confluent étend Tableflow à Delta Lake, Unity Catalog et OneLake pour une analyse en temps réel et de l’IA multicloud
Confluent, leader du streaming de données, annonce aujourd’hui la disponibilité générale (GA) des intégrations avec Delta Lake et Unity Catalog dans Confluent Tableflow, ainsi qu’un accès anticipé (EA) à Microsoft OneLake. Ces évolutions positionnent Tableflow comme une solution gérée de bout en bout, connectant en temps réel les systèmes opérationnels, analytiques et d’intelligence artificielle (IA) dans des environnements hybrides et multicloud. Grâce à cette évolution, Confluent permet désormais l’ingestion directe de sujets Apache Kafka® dans des tables Delta Lake ou Apache Iceberg™, avec des contrôles de qualité automatisés, une synchronisation de métadonnées et une sécurité d’entreprise renforcée. Depuis son lancement, Tableflow a transformé la manière dont les organisations rendent leurs données en streaming prêtes à l’analyse. En éliminant les processus ETL fragiles et les intégrations manuelles vers les lakehouses, il accélère significativement la mise en œuvre d’analyses en temps réel. L’ajout de Delta Lake et Unity Catalog en version GA, ainsi que le support d’OneLake en accès anticipé, étend considérablement la portée multicloud de la solution. Cette évolution permet une gouvernance unifiée, une connectivité fluide entre les flux de données en temps réel et les entrepôts de données analytiques, et un accès immédiat à des données de haute qualité pour l’IA. La version GA introduit plusieurs fonctionnalités d’entreprise : la conversion directe des sujets Kafka en tables Delta Lake stockées dans des services cloud comme Amazon S3 ou Azure Data Lake Storage ; la prise en charge simultanée de formats Delta Lake et Iceberg pour des analyses flexibles ; la synchronisation automatique des métadonnées, schémas et politiques d’accès avec Databricks Unity Catalog, assurant une gouvernance centralisée ; un mécanisme de file d’attente de lettres mortes pour isoler les enregistrements corrompus sans interrompre le flux ; une fonction d’upsert pour maintenir les tables synchronisées, dédoublonnées et prêtes à l’analyse ; et le support de clés de chiffrement gérées par le client (BYOK), essentiel pour les secteurs réglementés comme la finance, la santé ou la fonction publique. Ces améliorations s’ajoutent à des fonctionnalités existantes telles que l’évolution de schéma, la compaction, la maintenance automatisée des tables, ainsi qu’aux intégrations avec Apache Iceberg, AWS Glue et Snowflake Open Catalog. Tableflow devient ainsi une base solide pour les équipes souhaitant rendre leurs données en streaming instantanément disponibles, gouvernées et résilientes. David Kinney, architecte solutions chez Attune, souligne l’impact de la solution : « Grâce à Tableflow, nous pouvons matérialiser en quelques clics des sujets Kafka clés en tables fiables et prêtes à l’analyse, ce qui nous donne une visibilité précise sur l’engagement client et le comportement des dispositifs IoT. Ces jeux de données de qualité alimentent désormais nos analyses, modèles d’apprentissage automatique et applications d’IA générative, sur une infrastructure de données robuste. » L’accès anticipé à OneLake sur Azure, intégré à Databricks et Microsoft Fabric, renforce la collaboration entre Confluent, Microsoft et Databricks. Dipti Borkar, VP et GM du groupe OneLake chez Microsoft, ajoute : « L’accès aux données en temps réel est essentiel pour des décisions rapides et précises. Avec Tableflow sur Azure, les clients peuvent diffuser des événements Kafka vers OneLake en tant que tables Delta Lake ou Iceberg, et les interroger instantanément via Microsoft Fabric ou des moteurs tiers, réduisant ainsi la complexité et accélérant la prise de décision. » Ces avancées marquent une étape clé dans le développement de l’écosystème de données en mouvement, renforçant la position de Confluent comme plateforme centrale pour les architectures modernes de données.
