Spark Streaming实现了对实时流数据的高吞吐量、地容错的数据处理API。它的数据来源有很多种:Kafka、Flume、Twitter、ZeroMQ、TCP Scoket等。架构图如下:
Streaming接收实时流输入的数据,将其按批划分,然后交给Spark Enigne分批处理。如下图所示:
转载于:https://www.cnblogs.com/huwf/p/4273368.html
因篇幅问题不能全部显示,请点此查看更多更全内容