加入收藏 | 设为首页 | 会员中心 | 我要投稿 湖南网 (https://www.hunanwang.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 教程 > 正文

为啥Spark 的Broadcast要用单例模式

发布时间:2019-06-11 16:54:59 所属栏目:教程 来源:浪院长
导读:许多用Spark Streaming 的伴侣应该行使过broadcast,大大都环境下广播变量都是以单例模式声明的有没有粉丝想过为什么?浪尖在这里帮各人说明一下,有以下几个缘故起因: 广播变量大大都环境下是不会改观的,行使单例模式可以镌汰spark streaming每次job天生执行
副问题[/!--empirenews.page--]

许多用Spark Streaming 的伴侣应该行使过broadcast,大大都环境下广播变量都是以单例模式声明的有没有粉丝想过为什么?浪尖在这里帮各人说明一下,有以下几个缘故起因:

  1. 广播变量大大都环境下是不会改观的,行使单例模式可以镌汰spark streaming每次job天生执行,一再活成广播变量带来的开销。
  2. 单例模式也要做同步。这个对付许多新手来说可以不消思量同步题目,缘故起因很简朴由于新手不会调解spark 措施task的调治模式,而默认回收FIFO的调治模式,根基不会发生并发题目。1).若是你设置了Fair调治模式,同时修改了Spark Streaming运行的并行执行的job数,默以为1,那么就要加上同步代码了。2).尚有一个缘故起因,在多输出流的环境下共享broadcast,同时设置了Fair调治模式,也会发生并发题目。
  3. 留意。有些时辰好比广播设置文件,法则等必要改观broadcast,在行使fair的时辰可以在foreachrdd内里行使局部变量作为广播,停止彼此滋扰。

先看例子,后头慢慢发表内部机制。

1.例子

下面是一个双重搜查式的broadcast变量的声明方法。

  1. object WordBlacklist { 
  2.  
  3.   @volatile private var instance: Broadcast[Seq[String]] = null 
  4.  
  5.   def getInstance(sc: SparkContext): Broadcast[Seq[String]] = { 
  6.     if (instance == null) { 
  7.       synchronized { 
  8.         if (instance == null) { 
  9.           val wordBlacklist = Seq("a", "b", "c") 
  10.           instance = sc.broadcast(wordBlacklist) 
  11.         } 
  12.       } 
  13.     } 
  14.     instance 
  15.   } 

广播变量的行使要领如下:

  1. val lines = ssc.socketTextStream(ip, port) 
  2.     val words = lines.flatMap(_.split(" ")) 
  3.     val wordCounts = words.map((_, 1)).reduceByKey(_ + _) 
  4.     wordCounts.foreachRDD { (rdd: RDD[(String, Int)], time: Time) => 
  5.       // Get or register the blacklist Broadcast 
  6.       val blacklist = WordBlacklist.getInstance(rdd.sparkContext) 
  7.       // Get or register the droppedWordsCounter Accumulator 
  8.       val droppedWordsCounter = DroppedWordsCounter.getInstance(rdd.sparkContext) 
  9.       // Use blacklist to drop words and use droppedWordsCounter to count them 
  10.       val counts = rdd.filter { case (word, count) => 
  11.         if (blacklist.value.contains(word)) { 
  12.           droppedWordsCounter.add(count) 
  13.           false 
  14.         } else { 
  15.           true 
  16.         } 
  17.       }.collect().mkString("[", ", ", "]") 
  18.       val output = s"Counts at time $time $counts" 
  19.       println(output) 
  20.       println(s"Dropped ${droppedWordsCounter.value} word(s) totally") 
  21.       println(s"Appending to ${outputFile.getAbsolutePath}") 
  22.       Files.append(output + "n", outputFile, Charset.defaultCharset()) 
  23.     } 

2.观念增补

为啥Spark 的Broadcast要用单例模式

(编辑:湖南网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

热点阅读