您当前的位置: 首页 >  ar

段智华

暂无认证

  • 0浏览

    0关注

    1232博文

    0收益

  • 0浏览

    0点赞

    0打赏

    0留言

私信
关注
热门博文

Spark Structured Streaming 实现自定义数据源

段智华 发布时间:2019-11-16 09:30:19 ,浏览量:0

Spark Structured Streaming  实现自定义数据源:

Spark Streaming 查询使用微批处理引擎进行处理,微批处理引擎将 data streams 作为一系列小批处理作业进行处理,从Spark 2.3以来,Spark引入了一种新的低延迟处理模式,称为连续处理,可以实现毫秒级的端到端延迟。 

Spark Structured Streaming   Demo:

main.scala

package org.apache.spark.sql.structured

import java.util.concurrent.TimeUnit

import org.apache.spark.sql.streaming.{StreamingQuery, Trigger}
import org.apache.spark.sql.{DataFrame, SparkSession}

object Main extends App {

  val spark = SparkSession
    .builder
    .master("local[*]")
    .appName("Demo Source (DSv1 / Micro-Batch)")
    .getOrCreate

  println(s"This is Spark v${spark.version}")

  val data: DataFrame = spark
    .readStream
    .format("org.apache.spark.sql.structured.DemoSourceProvider") //             
关注
打赏
1659361485
查看更多评论
0.0722s