美文网首页Spark
Spark核心编程:Spark基本工作原理与RDD

Spark核心编程:Spark基本工作原理与RDD

作者: 义焃 | 来源:发表于2018-11-11 21:04 被阅读0次

Spark核心编程:Spark基本工作原理与RDD

Spark基本工作原理

画图讲解Spark的基本工作原理
1、分布式
2、主要基于内存(少数情况基于磁盘)
3、迭代式计算

RDD以及其特点

1、RDD是Spark提供的核心抽象,全称为Resillient Distributed Dataset,即弹性分布式数据集。
2、RDD在抽象上来说是一种元素集合,包含了数据。它是被分区的,分为多个分区,每个分区分布在集群中的不同节点上,从而让RDD中的数据可以被并行操作。(分布式数据集)
3、RDD通常通过Hadoop上的文件,即HDFS文件或者Hive表,来进行创建;有时也可以通过应用程序中的集合来创建。
4、RDD最重要的特性就是,提供了容错性,可以自动从节点失败中恢复过来。即如果某个节点上的RDD partition,因为节点故障,导致数据丢了,那么RDD会自动通过自己的数据来源重新计算该partition。这一切对使用者是透明的。
5、RDD的数据默认情况下存放在内存中的,但是在内存资源不足时,Spark会自动将RDD数据写入磁盘。(弹性)

什么是Spark开发?

1、核心开发:离线批处理 / 延迟性的交互式数据处理
2、SQL查询:底层都是RDD和计算操作
3、实时计算:底层都是RDD和计算操作

相关文章

  • Spark核心编程:Spark基本工作原理与RDD

    Spark核心编程:Spark基本工作原理与RDD Spark基本工作原理 画图讲解Spark的基本工作原理1、分...

  • spark基本工作原理

    1.spark基本工作原理 2.RDD 以及其特性a、RDD是Spark提供的核心抽象,全称为Resillient...

  • scala基础语法

    Spark核心编程wordcount程序原理深度剖析图 Spark核心编程Spark架构原理

  • Java/Scala开发wordcount

    Spark基本原理 分布式 基于内存 迭代计算 RDD及其特点 分区 弹性 容错性 RDD是Spark提供的核心抽...

  • Spark Core - 编程基础

    RDD编程 什么是RDD RDD是Spark的基石,是实现Spark数据处理的核心抽象。RDD是一个抽象类,它代表...

  • Spark Scheduler内部原理剖析

    通过文章“Spark核心概念RDD”我们知道,Spark的核心是根据RDD来实现的,Spark Scheduler...

  • RDD详解

    RDD基本操作(引用) 1、RDD是什么 RDD:Spark的核心概念是RDD (resilientdistrib...

  • 10 Spark Streaming

    Spark Streaming 第一:Spark Streaming基本原理 Spark Streaming的核心...

  • Spark基本工作原理与RDD

    1.11 Spark架构原理 driver向worker进程提交资源请求,worker会启动多个executor进...

  • 5.spark core之RDD编程

    Spark Core之RDD编程   spark提供了对数据的核心抽象——弹性分布式数据集(Resilient D...

网友评论

    本文标题:Spark核心编程:Spark基本工作原理与RDD

    本文链接:https://www.haomeiwen.com/subject/syeffqtx.html