这篇文章主要讲解了“创建RDD的方式有哪些”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“创建RDD的方式有哪些”吧! 1.从集合中创建RDD val conf =
new SparkConf().setAppName("Test").setMaster("local") val sc =
new SparkContext(conf) //这两个方法都有第二参数是一个默认值2 分片数量(partition的数量) //scala集合通过makeRDD创建RDD,底层实现也是parallelize val rdd1 = sc.makeRDD(Array(1,2,3,4,5,6)) //scala集合通过parallelize创建RDD val rdd2 = sc.parallelize(Array(1,2,3,4,5,6)) |
2.从外部存储创建RDD //从外部存储创建RDD val rdd3 = sc.textFile("hdfs://hadoop01:8020/word.txt") |
RDD编程APIRDD支持两种操作:转化操作和行动操作。RDD 的转化操作是返回一个新的 RDD的操作,比如 map()和 filter(),而行动操作则是向驱动器程序返回结果或把结果写入外部系统的操作。比如 count() 和 first()。 Spark采用惰性计算模式,RDD只有第一次在一个行动操作中用到时,才会真正计算。Spark可以优化整个计算过程。默认情况下,Spark 的 RDD 会在你每次对它们进行行动操作时重新计算。如果想在多个行动操作中重用同一个 RDD,可以使用 RDD.persist() 让 Spark 把这个 RDD 缓存下来。 Transformation算子 RDD中的所有转换都是延迟加载的,也就是说,它们并不会直接计算结果。相反的,它们只是记住这些应用到基础数据集(例如一个文件)上的转换动作。只有当发生一个要求返回结果给Driver的动作时,这些转换才会真正运行。这种设计让Spark更加有效率地运行。 转换 | 含义 | map(func) | 返回一个新的RDD,该RDD由每一个输入元素经过func函数转换后组成 | filter(func) | 返回一个新的RDD,该RDD由经过func函数计算后返回值为true的输入元素组成 | flatMap(func) | 类似于map,但是每一个输入元素可以被映射为0或多个输出元素(所以func应该返回一个序列,而不是单一元素) | mapPartitions(func) | 类似于map,但独立地在RDD的每一个分片上运行,因此在类型为T的RDD上运行时,func的函数类型必须是Iterator[T] => Iterator[U] | mapPartitionsWithIndex(func) | 类似于mapPartitions,但func带有一个整数参数表示分片的索引值,因此在类型为T的RDD上运行时,func的函数类型必须是(Int, Iterator[T]) => Iterator[U] | sample(withReplacement, fraction, seed) | 根据fraction指定的比例对数据进行采样,可以选择是否使用随机数进行替换,seed用于指定随机数生成器种子 | union(otherDataset) | 对源RDD和参数RDD求并集后返回一个新的RDD | intersection(otherDataset) | 对源RDD和参数RDD求交集后返回一个新的RDD | distinct([numTasks])) | 对源RDD进行去重后返回一个新的RDD | groupByKey([numTasks]) | 在一个(K,V)的RDD上调用,返回一个(K, Iterator[V])的RDD | reduceByKey(func, [numTasks]) | 在一个(K,V)的RDD上调用,返回一个(K,V)的RDD,使用指定的reduce函数,将相同key的值聚合到一起,与groupByKey类似,reduce任务的个数可以通过第二个可选的参数来设置 | aggregateByKey(zeroValue)(seqOp, combOp, [numTasks]) | 相同的Key值进行聚合操作,在聚合过程中同样使用了一个中立的初始值zeroValue:中立值,定义返回value的类型,并参与运算seqOp:用来在同一个partition中合并值combOp:用来在不同partiton中合并值 | sortByKey([ascending], [numTasks]) | 在一个(K,V)的RDD上调用,K必须实现Ordered接口,返回一个按照key进行排序的(K,V)的RDD | sortBy(func,[ascending], [numTasks]) | 与sortByKey类似,但是更灵活 | join(otherDataset, [numTasks]) | 在类型为(K,V)和(K,W)的RDD上调用,返回一个相同key对应的所有元素对在一起的(K,(V,W))的RDD | cogroup(otherDataset, [numTasks]) | 在类型为(K,V)和(K,W)的RDD上调用,返回一个(K,(Iterable,Iterable))类型的RDD | cartesian(otherDataset) | 笛卡尔积 | pipe(command, [envVars]) | 将一些shell命令用于Spark中生成新的RDD | coalesce(numPartitions) | 重新分区 | repartition(numPartitions) | 重新分区 | repartitionAndSortWithinPartitions(partitioner) | 重新分区和排序 |
Action算子 在RDD上运行计算,并返回结果给Driver或写入文件系统 动作 | 含义 | reduce(func) | 通过func函数聚集RDD中的所有元素,这个功能必须是可交换且可并联的 | collect() | 在驱动程序中,以数组的形式返回数据集的所有元素 | count() | 返回RDD的元素个数 | first() | 返回RDD的第一个元素(类似于take(1)) | take(n) | 返回一个由数据集的前n个元素组成的数组 | takeSample(withReplacement,num, [seed]) | 返回一个数组,该数组由从数据集中随机采样的num个元素组成,可以选择是否用随机数替换不足的部分,seed用于指定随机数生成器种子 | takeOrdered(n,
[ordering]) | takeOrdered和top类似,只不过以和top相反的顺序返回元素 | saveAsTextFile(path) | 将数据集的元素以textfile的形式保存到HDFS文件系统或者其他支持的文件系统,对于每个元素,Spark将会调用toString方法,将它装换为文件中的文本 | saveAsSequenceFile(path) | 将数据集中的元素以Hadoop sequencefile的格式保存到指定的目录下,可以使HDFS或者其他Hadoop支持的文件系统。 | saveAsObjectFile(path) |
| countByKey() | 针对(K,V)类型的RDD,返回一个(K,Int)的map,表示每一个key对应的元素个数。 | foreach(func) | 在数据集的每一个元素上,运行函数func进行更新。 |
RDD支持两种操作:转化操作和行动操作。RDD 的转化操作是返回一个新的 RDD的操作,比如 map()和 filter(),而行动操作则是向驱动器程序返回结果或把结果写入外部系统的操作。比如 count() 和 first()。 Spark采用惰性计算模式,RDD只有第一次在一个行动操作中用到时,才会真正计算。Spark可以优化整个计算过程。默认情况下,Spark 的 RDD 会在你每次对它们进行行动操作时重新计算。如果想在多个行动操作中重用同一个 RDD,可以使用 RDD.persist() 让 Spark 把这个 RDD 缓存下来。 Transformation算子**** RDD中的所有转换都是延迟加载的,也就是说,它们并不会直接计算结果。相反的,它们只是记住这些应用到基础数据集(例如一个文件)上的转换动作。只有当发生一个要求返回结果给Driver的动作时,这些转换才会真正运行。这种设计让Spark更加有效率地运行。 转换 | 含义 |
---|
map(func) | 返回一个新的RDD,该RDD由每一个输入元素经过func函数转换后组成 | filter(func) | 返回一个新的RDD,该RDD由经过func函数计算后返回值为true的输入元素组成 | flatMap(func) | 类似于map,但是每一个输入元素可以被映射为0或多个输出元素(所以func应该返回一个序列,而不是单一元素) | mapPartitions(func) | 类似于map,但独立地在RDD的每一个分片上运行,因此在类型为T的RDD上运行时,func的函数类型必须是Iterator[T] => Iterator[U] | mapPartitionsWithIndex(func) | 类似于mapPartitions,但func带有一个整数参数表示分片的索引值,因此在类型为T的RDD上运行时,func的函数类型必须是(Int, Iterator[T]) => Iterator[U] | sample(withReplacement, fraction, seed) | 根据fraction指定的比例对数据进行采样,可以选择是否使用随机数进行替换,seed用于指定随机数生成器种子 | union(otherDataset) | 对源RDD和参数RDD求并集后返回一个新的RDD | intersection(otherDataset) | 对源RDD和参数RDD求交集后返回一个新的RDD | distinct([numTasks])) | 对源RDD进行去重后返回一个新的RDD | groupByKey([numTasks]) | 在一个(K,V)的RDD上调用,返回一个(K, Iterator[V])的RDD | reduceByKey(func, [numTasks]) | 在一个(K,V)的RDD上调用,返回一个(K,V)的RDD,使用指定的reduce函数,将相同key的值聚合到一起,与groupByKey类似,reduce任务的个数可以通过第二个可选的参数来设置 | aggregateByKey(zeroValue)(seqOp, combOp, [numTasks]) | 相同的Key值进行聚合操作,在聚合过程中同样使用了一个中立的初始值zeroValue:中立值,定义返回value的类型,并参与运算seqOp:用来在同一个partition中合并值combOp:用来在不同partiton中合并值 | sortByKey([ascending], [numTasks]) | 在一个(K,V)的RDD上调用,K必须实现Ordered接口,返回一个按照key进行排序的(K,V)的RDD | sortBy(func,[ascending], [numTasks]) | 与sortByKey类似,但是更灵活 | join(otherDataset, [numTasks]) | 在类型为(K,V)和(K,W)的RDD上调用,返回一个相同key对应的所有元素对在一起的(K,(V,W))的RDD | cogroup(otherDataset, [numTasks]) | 在类型为(K,V)和(K,W)的RDD上调用,返回一个(K,(Iterable,Iterable))类型的RDD | cartesian(otherDataset) | 笛卡尔积 | pipe(command, [envVars]) | 将一些shell命令用于Spark中生成新的RDD | coalesce(numPartitions) | 重新分区 | repartition(numPartitions) | 重新分区 | repartitionAndSortWithinPartitions(partitioner) | 重新分区和排序 |
** Action算子** 在RDD上运行计算,并返回结果给Driver或写入文件系统 动作 | 含义 |
---|
reduce(func) | 通过func函数聚集RDD中的所有元素,这个功能必须是可交换且可并联的 | collect() | 在驱动程序中,以数组的形式返回数据集的所有元素 | count() | 返回RDD的元素个数 | first() | 返回RDD的第一个元素(类似于take(1)) | take(n) | 返回一个由数据集的前n个元素组成的数组 | takeSample(withReplacement,num, [seed]) | 返回一个数组,该数组由从数据集中随机采样的num个元素组成,可以选择是否用随机数替换不足的部分,seed用于指定随机数生成器种子 | takeOrdered(n,
[ordering]) | takeOrdered和top类似,只不过以和top相反的顺序返回元素 | saveAsTextFile(path) | 将数据集的元素以textfile的形式保存到HDFS文件系统或者其他支持的文件系统,对于每个元素,Spark将会调用toString方法,将它装换为文件中的文本 | saveAsSequenceFile(path) | 将数据集中的元素以Hadoop sequencefile的格式保存到指定的目录下,可以使HDFS或者其他Hadoop支持的文件系统。 | saveAsObjectFile(path) |
| countByKey() | 针对(K,V)类型的RDD,返回一个(K,Int)的map,表示每一个key对应的元素个数。 | foreach(func) | 在数据集的每一个元素上,运行函数func进行更新。 |
感谢各位的阅读,以上就是“创建RDD的方式有哪些”的内容了,经过本文的学习后,相信大家对创建RDD的方式有哪些这一问题有了更深刻的体会,具体使用情况还需要大家实践验证。这里是天达云,小编将为大家推送更多相关知识点的文章,欢迎关注!
|