原文:Spark(十五)SparkCore的源码解读

一 启动脚本分析 独立部署模式下,主要由master和slaves组成,master可以利用zk实现高可用性,其driver,work,app等信息可以持久化到zk上 slaves由一台至多台主机构成。Driver通过向Master申请资源获取运行环境。 启动master和slaves主要是执行 usr dahua spark sbin目录下的start master.sh和start slave ...

2018-07-15 21:47 0 1030 推荐指数:

查看详情

[Spark] - SparkCore程序优化总结

http://spark.apache.org/docs/1.6.1/tuning.html1) 代码优化 a. 对于多次使用的RDD,进行数据持久化操作(eg: cache、persist) b. 如果对同一个份数据进行操作,那么尽量公用一个RDD c. 优先使用reduceByKey ...

Wed Mar 15 23:00:00 CST 2017 0 3819
spark 源码分析之十五 -- Spark内存管理剖析

本篇文章主要剖析Spark的内存管理体系。 在上篇文章 spark 源码分析之十四 -- broadcast 是如何实现的?中对存储相关的内容没有做过多的剖析,下面计划先剖析Spark的内存机制,进而进入内存存储,最后再剖析磁盘存储。本篇文章主要剖析内存管理机制。 整体介绍 Spark内存 ...

Thu Jul 18 03:57:00 CST 2019 0 506
Spark ML源码分析之一 设计框架解读

本博客为作者原创,如需转载请注明http://www.cnblogs.com/jicanghai/p/8570805.html 在深入理解Spark ML中的各类算法之前,先理一下整个库的设计框架,是非常有必要的,优秀的框架是对复杂问题的抽象和解剖,对这种 ...

Thu Mar 15 07:25:00 CST 2018 0 1023
linux源码解读(二十五):mmap原理和实现方式

  众所周知,linux的理念是万物皆文件,自然少不了对文件的各种操作,常见的诸如open、read、write等,都是大家耳熟能详的操作。除了这些常规操作外,还有一个不常规的操作:mmap,其在fi ...

Thu Feb 24 00:47:00 CST 2022 0 3523
Spark详解(05-1) - SparkCore实战案例

Spark详解(05-1) - SparkCore实战案例 数据准备 1)数据格式 本项目的数据是采集电商网站的用户行为数据,主要包含用户的4种行为:搜索、点击、下单和支付。 (1)数据采用_分割字段 (2)每一行表示用户的一个行为,所以每一行只能是四种行为中的一种 ...

Mon Mar 28 02:10:00 CST 2022 0 702
 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM