相关文章

【数据库】SQL语句

第三章 SQL SQL(structured Query Language) SQL概述 SQL特点 综合统一。高度非过程化。面向集合的操作方式。以同一种语法结构提供多种使用方式。语言简洁易学易用。 主要版本 SQL-89SQL-92 ,SQL2SQL-99 ,SQL3 数据库结构 SQL语言是集DDL、DML和DCL于一体的数据库语言…

【spark】RDD数据源

1、普通文本文件 sc.textFile("./dir/*.txt") 如果传递目录,则将目录下的所有文件读取作为RDD。文件路径支持通配符。 但是这样对于大量的小文件读取效率并不高,应该使用wholeTextFiles def wholeTextFiles(path: String, minPartitions: …

Spark 入门 RDD操作

Spark版本: 3.1.3 RDD 支持两种类型的操作: 转换操作(transformations): 从现有数据集创建一个新数据集动作操作(actions): 在数据集上进行计算后将值返回给 Driver 例如,map 是一个转换操作,将数据集每个元素传递给一个函数并返回一个新 R…

Spark之RDD算子

🐱今天出一期spark系列的硬货,即RDD算子,所谓算子,就是对某些事物的操作,或者说是方法。本期主要介绍几十个RDD算子,根据他们的特点,逐一进行介绍,有关spark的往期内容大家可以查看下…

Spark RDD之Partition

概要 Spark RDD主要由Dependency、Partition、Partitioner组成,Partition是其中之一。一份待处理的原始数据会被按照相应的逻辑(例如jdbc和hdfs的split逻辑)切分成n份,每份数据对应到RDD中的一个Partition,Partition的数量决定了task的数量&…

【spark】RDD-API

一、创建RDD 1.由外部存储系统的数据集创建,由外部存储系统的数据集创建,包括本地的文件系统,还有所有Hadoop支持的数据集,比如HDFS、Cassandra、HBase等 val rdd1 sc.textFile("hdfs://node01:8020/wordcount/input/word…

【大数据】Spark弹性分布式数据集RDD详细说明

文章目录 整体介绍一、定义与特性二、操作与转换三、存储级别与持久化四、依赖关系与容错机制五、优化与性能调优 常见操作支持的数据格式1.文本文件 (Text Files)2. CSV 文件3. JSON 文件4. Parquet 文件5. Sequence Files6.Hadoop文件读取A. 读取HDFS上的文本文件B. 使用Hado…

Spark RDD算子

RDD算子 ​ RDD被创建后是只读的,不允许修改。Spark提供了丰富的用于操作RDD的方法,这些方法被称为算子。一个创建完成的RDD只支持两种算子:转化(Transformation)算子和行动(Action)算子。 转…

RDD编程初级实践

目录 一、实验目的二、实验内容1. 熟悉RDD编程2. pySpark交互式编程3. 编写独立应用程序 一、实验目的 熟悉Spark的RDD基本操作及键值对操作;熟悉使用RDD编程解决实际具体问题的方法。 二、实验内容 1. 熟悉RDD编程 转换操作 filter(func)操作会筛选出满足函数fu…

RDD实现

解析器集成 Scala解析器处理一般过程: 1 将用户输入每一行编译成一个类 2 将该类载入到JVM中 3 调用该类中的某个函数 内存管理 1 未序列化Java对象存储在内存中 2 序列化的数据存于内存中 3 存于磁盘中 内存使用LRU(最近最少)回收算法管理 RDD编程接口 1 RD…

PySpark RDD操作

前提条件: 1、拥有Ubuntu16.04环境 2、Ubuntu下安装好Spark和PySpark 题目一:RDD创建 首先进入pyspark命令行 $ pyspark (1)从文件中加载 从本地文件创建RDD >>> lines sc.textFile("file:///home/hadoop/da…

RDD的创建方式

RDD的创建方式 1. 实验室名称:2. 实验项目名称:3. 实验学时:4. 实验原理:5. 实验目的:6. 实验内容:7. 实验器材(设备、虚拟机名称):8. 实验步骤:8.1 启动Spark集群8.2 启动zeppelin服务器8.3 创建notebook文档8.4 从内存集合构造RDD8.5 读取外部存储数据,构造RDD9. …

RDD分区理解

RDD分区的作用 一个HDFS文件的RDD将文件的每个文件块表示为一个分区,并且知道每个文件块的位置信息。这些对应着数据块的分区分布到集群的节点中,因此,分区的多少涉及对这个RDD进行并行计算的粒度。首先,分区是一个逻辑概念&…

spark数据处理-RDD

文章目录 spark数据处理笔记spark核心介绍RDD编程RDD介绍-弹性分布式数据集创建RDD两种方式函数传递常见RDD转化操作和行动操作常用的转化操作:类集合操作行动操作 不同RDD类型间转化持久化(缓存)键值对RDD操作创建Pair RDD转化操作单RDD操作…

Spark——RDD操作详解

转载自:https://blog.csdn.net/zhaojw_420/article/details/53261965 一、基本RDD 1、针对各个元素的转化操作 最常用的转化操作是map()和filter()。转化操作map()J接收一个函数,把这个函数用于RDD中的每一个元素,将函数的返回结果作为结果…

RDD原理

RDD概念RDD的内部属性 一组分片(Partition),即数据集的基本组成单位计算每个分片的函数RDD之间的依赖关系一个Partitioner,即RDD的分片函数分区列表,存储存取每个Partition的优先位置(preferred location&a…

RDD基本概念

RDD是弹性分布式数据集,即一个RDD代表一个被分区的只读数据集。一个RDD的生成只有两种途径,一是来自于内存集合和外部存储系统,另一种是通过转换操作来自于其他RDD,比如map、filter、join,等等。 RDD没必要随时被实例化,由于RDD的接口只支持粗粒度的操作(即一个操作会被应用在R…

RDD持久化

一、RDD持久化原理 Spark非常重要的一个功能特性就是可以将RDD持久化在内存中。当对RDD执行持久化操作时,每个节点都会将自己操作的RDD的partition持久化到内存中,并且在之后对该RDD的反复使用中,直接使用内存缓存的partition。这样的话&…

RDD2022 数据格式转换与清洗

Rdd2022数据集,是关于道路损伤的数据集,与rdd2020相比增加了两万多张图片 但是由于格式不能被yolo直接使用且其中有大量的图片没有符合要求的标注,特写此文章记录数据清洗与格式化的过程 数据集下载 在开始前需要自己下载zip格式的RDD2022数…

RDD

RDD <1> 概述一. 什么是RDD二. spark 编程模型1. DataSource2. SparkContext3. Diver&#xff08;1&#xff09;SparkConf&#xff08;2&#xff09;SparkEnv&#xff08;3&#xff09;DAGScheduler&#xff08;4&#xff09;TaskScheduler&#xff08;5&#xff09;Sche…