加入收藏 | 设为首页 | 会员中心 | 我要投稿 源码网 (https://www.900php.com/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 运营中心 > 网站设计 > 教程 > 正文

为啥Spark 的Broadcast要用单例模式

发布时间:2019-06-12 04:23:23 所属栏目:教程 来源:浪院长
导读:副标题#e# 很多用Spark Streaming 的朋友应该使用过broadcast,大多数情况下广播变量都是以单例模式声明的有没有粉丝想过为什么?浪尖在这里帮大家分析一下,有以下几个原因: 广播变量大多数情况下是不会变更的,使用单例模式可以减少spark streaming每次jo
副标题[/!--empirenews.page--]

很多用Spark Streaming 的朋友应该使用过broadcast,大多数情况下广播变量都是以单例模式声明的有没有粉丝想过为什么?浪尖在这里帮大家分析一下,有以下几个原因:

  1. 广播变量大多数情况下是不会变更的,使用单例模式可以减少spark streaming每次job生成执行,重复生成广播变量带来的开销。
  2. 单例模式也要做同步。这个对于很多新手来说可以不用考虑同步问题,原因很简单因为新手不会调整spark 程序task的调度模式,而默认采用FIFO的调度模式,基本不会产生并发问题。1).假如你配置了Fair调度模式,同时修改了Spark Streaming运行的并行执行的job数,默认为1,那么就要加上同步代码了。2).还有一个原因,在多输出流的情况下共享broadcast,同时配置了Fair调度模式,也会产生并发问题。
  3. 注意。有些时候比如广播配置文件,规则等需要变更broadcast,在使用fair的时候可以在foreachrdd里面使用局部变量作为广播,避免相互干扰。

先看例子,后面逐步揭晓内部机制。

1.例子

下面是一个双重检查式的broadcast变量的声明方式。

  1. object WordBlacklist { 
  2.  
  3.   @volatile private var instance: Broadcast[Seq[String]] = null 
  4.  
  5.   def getInstance(sc: SparkContext): Broadcast[Seq[String]] = { 
  6.     if (instance == null) { 
  7.       synchronized { 
  8.         if (instance == null) { 
  9.           val wordBlacklist = Seq("a", "b", "c") 
  10.           instance = sc.broadcast(wordBlacklist) 
  11.         } 
  12.       } 
  13.     } 
  14.     instance 
  15.   } 

广播变量的使用方法如下:

  1. val lines = ssc.socketTextStream(ip, port) 
  2.     val words = lines.flatMap(_.split(" ")) 
  3.     val wordCounts = words.map((_, 1)).reduceByKey(_ + _) 
  4.     wordCounts.foreachRDD { (rdd: RDD[(String, Int)], time: Time) => 
  5.       // Get or register the blacklist Broadcast 
  6.       val blacklist = WordBlacklist.getInstance(rdd.sparkContext) 
  7.       // Get or register the droppedWordsCounter Accumulator 
  8.       val droppedWordsCounter = DroppedWordsCounter.getInstance(rdd.sparkContext) 
  9.       // Use blacklist to drop words and use droppedWordsCounter to count them 
  10.       val counts = rdd.filter { case (word, count) => 
  11.         if (blacklist.value.contains(word)) { 
  12.           droppedWordsCounter.add(count) 
  13.           false 
  14.         } else { 
  15.           true 
  16.         } 
  17.       }.collect().mkString("[", ", ", "]") 
  18.       val output = s"Counts at time $time $counts" 
  19.       println(output) 
  20.       println(s"Dropped ${droppedWordsCounter.value} word(s) totally") 
  21.       println(s"Appending to ${outputFile.getAbsolutePath}") 
  22.       Files.append(output + "n", outputFile, Charset.defaultCharset()) 
  23.     } 

2.概念补充

为啥Spark 的Broadcast要用单例模式

(编辑:源码网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

热点阅读