加入收藏 | 设为首页 | 会员中心 | 我要投稿 湖南网 (https://www.hunanwang.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 教程 > 正文

对Spark的那些【魔改】

发布时间:2018-08-17 00:38:59 所属栏目:教程 来源:祝威廉
导读:技能沙龙 | 邀您于8月25日与国美/AWS/转转三位专家配合切磋小措施电商拭魅战 媒介 这两年做 streamingpro 时,不行停止的必要对Spark做大量的加强。就犹如我之前吐槽的,Spark大量行使了new举办工具的建设,导致内里的实现根基没有步伐举办替代。 好比SparkEn

我们先看看Spark是怎么挪用序列化函数的,起首在SparkContext里,clean函数是这样的:

  1. private[spark] def clean[F <: AnyRef](f: F, checkSerializable: Boolean = true): F = { 
  2.     ClosureCleaner.clean(f, checkSerializable) 
  3.     f 
  4.   } 

(编辑:湖南网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

热点阅读