HyperAIHyperAI

Command Palette

Search for a command to run...

Qlik全面升级开放湖仓架构:流式数据接入与实时转换新突破

Qlik近日宣布,其Qlik Open Lakehouse平台新增流式数据摄入、实时转换、数据质量保障及更广泛的生态系统集成能力,标志着企业级数据湖仓进入实时化与治理融合的新阶段。 新功能支持将来自Apache Kafka、Amazon Kinesis和Amazon S3的高吞吐量事件流,直接写入客户云环境中的受管Apache Iceberg表中,并在数据到达时即刻执行清洗、过滤、归一化、展平等实时转换。所有数据均自动应用数据质量检查、血缘追踪、元数据目录管理及Qlik Trust Score™,确保数据可信可用。数据写入一次,即可被分析、应用和机器学习团队即时调用,且计算资源由成本更低的专用算力承担,不依赖数据仓库资源。 平台还扩展了与主流数据引擎的集成,新增对Snowflake Open Catalog的支持,提升Apache Spark兼容性,并实现对Databricks和Amazon Redshift的“零拷贝”镜像,使同一份Iceberg数据可被多个系统高效访问,无需重复存储。这极大简化了混合湖仓与数据仓库架构的设计与维护。 Qlik产品与技术高级副总裁Drew Clarke表示:“AI的下一阶段是可操作的,它依赖于新鲜、受控的数据,而非每日批处理。Qlik Open Lakehouse通过实现实时摄入、转换、优化与治理一体化,让企业能在自有云中构建开放、可信的实时数据底座,加速AI从试点走向生产。” 客户与合作伙伴也高度认可。cimt管理合伙人Peter-Christian Quint指出:“当简单性与强治理结合,开放湖仓才能真正释放价值。Qlik让数据写入一次,即在全链路中实现近实时的AI与分析,显著提升效率,降低成本,这正是Qlik的核心优势。” 上述流式处理与实时转换功能计划于2026年第一季度面向Qlik Talend Cloud客户正式上线。Snowflake Open Catalog支持、Spark兼容性增强及Databricks、Redshift的零拷贝镜像将分阶段推出,具体时间将按地区陆续公布。 客户可于AWS re:Invent大会Qlik展位#1727现场体验新功能,或联系Qlik代表获取定制化演示与免费试用。

相关链接

Qlik全面升级开放湖仓架构:流式数据接入与实时转换新突破 | 热门资讯 | HyperAI超神经