logo

在 Databricks 中如何处理实时/流式数据?

How do you handle real-time data processing?

题目类型: 技术面试题

这是一道技术面试题,常见于澳洲IT公司面试中。

难度: medium

分类: Databricks, Company: Databricks

标签: Databricks, Streaming

参考答案摘要

答案 用 Spark Structured Streaming 连接 Kafka/Event Hubs/Kinesis 等源,定义 streaming DataFrame,完成实时清洗、聚合与窗口计算。 建议用 Delta Lake 作为 sink,并配置 checkpoint 保障容错与 exactly-once;监控延迟与吞吐,按需调优触发间隔、状态存储与分区策略。

本题提供 STAR 原则详细解答和技术解析,登录匠人学院学习中心即可查看完整答案。

← 返回面试题库

在 Databricks 中如何处理实时/流式数据?

Mediumdatabrickssparkstructured-streamingkafkadelta-lake

想查看完整答案?

登录匠人学院学习中心,获取 STAR 格式回答和详细技术解析

前往学习中心查看答案