《深入理解Spark:核心思想与源码分析》——3.13节创建DAGSchedulerSource和BlockManagerSource

本节书摘来自华章社区《深入理解Spark:核心思想与源码分析》一书中的第3章,第3.13节创建DAGSchedulerSource和BlockManagerSource,作者耿嘉安,更多章节内容可以访问云栖社区“华章社区”公众号查看 3.13 创建DAGSchedulerSource和BlockMa...

《深入理解Spark:核心思想与源码分析》——3.3节创建metadataCleaner

本节书摘来自华章社区《深入理解Spark:核心思想与源码分析》一书中的第3章,第3.3节创建metadataCleaner,作者耿嘉安,更多章节内容可以访问云栖社区“华章社区”公众号查看 3.3 创建metadataCleanerSparkContext为了保持对所有持久化的RDD的跟踪,使用类型是...

大数据实战项目:反爬虫系统(Lua+Spark+Redis+Hadoop框架搭建)第四阶段

19 课时 |
106 人已学 |
免费

大数据实战项目:反爬虫系统(Lua+Spark+Redis+Hadoop框架搭建)第五阶段

32 课时 |
125 人已学 |
免费

大数据实战项目 - 反爬虫系统(Lua+Spark+Redis+Hadoop框架搭建)第六阶段

21 课时 |
180 人已学 |
免费
开发者课程背景图

《深入理解Spark:核心思想与源码分析》——3.2节创建执行环境SparkEnv

本节书摘来自华章社区《深入理解Spark:核心思想与源码分析》一书中的第3章,第3.2节创建执行环境SparkEnv,作者耿嘉安,更多章节内容可以访问云栖社区“华章社区”公众号查看 3.2 创建执行环境SparkEnvSparkEnv是Spark的执行环境对象,其中包括众多与Executor执行相关...

深入理解Spark:核心思想与源码分析. 3.13 创建DAGSchedulerSource和BlockManagerSource

3.13 创建DAGSchedulerSource和BlockManagerSource 在创建DAGSchedulerSource、BlockManagerSource之前首先调用taskScheduler的post-StartHook方法,其目的是为了等待backend就绪,见代码清单3-53。...

深入理解Spark:核心思想与源码分析. 3.3 创建metadataCleaner

3.3 创建metadataCleaner SparkContext为了保持对所有持久化的RDD的跟踪,使用类型是TimeStamped-WeakValueHashMap的persistentRdds缓存。metadataCleaner的功能是清除过期的持久化RDD。创建metadataCleane...

深入理解Spark:核心思想与源码分析. 3.2 创建执行环境SparkEnv

3.2 创建执行环境SparkEnv SparkEnv是Spark的执行环境对象,其中包括众多与Executor执行相关的对象。由于在local模式下Driver会创建Executor,local-cluster部署模式或者Standalone部署模式下Worker另起的CoarseGrainedE...

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

社区圈子

Apache Spark 中国技术社区
Apache Spark 中国技术社区
阿里巴巴开源大数据技术团队成立 Apache Spark 中国技术社区,定期推送精彩案例,问答区数个 Spark 技术同学每日在线答疑,只为营造 Spark 技术交流氛围,欢迎加入!
4459+人已加入
加入
相关电子书
更多
云HBaseSQL及分析 ——Phoenix&Spark
R AND SPARK
Spark Autotuning
立即下载 立即下载 立即下载