1. 程式人生 > 其它 >第五章_Spark核心程式設計_Rdd_distinct運算元

第五章_Spark核心程式設計_Rdd_distinct運算元

1. 定義

    /*
    * 1. 定義
    *    def distinct(): RDD[T]
    * 2. 功能
    *    將Rdd 元素去重,返回去重後的Rdd
    *
    * */
  object distinctTest extends App {

    val sparkconf: SparkConf = new SparkConf().setMaster("local").setAppName("distinctTest")

    val sc: SparkContext = new SparkContext(sparkconf)

    val rdd 
= sc.makeRDD(List(1, 2, 3, 4, 5, 6, 7, 8, 8, 2), 2) private val rdd1: RDD[Int] = rdd.distinct() println(s"當前分割槽數 : ${rdd1.getNumPartitions}") println(rdd1.collect().mkString(",")) sc.stop() }

2. 思考 : 不用distinct 運算元對List 去重

  object distinctTestWithGroupby extends App {

    val sparkconf: SparkConf 
= new SparkConf().setMaster("local").setAppName("distinctTest") val sc: SparkContext = new SparkContext(sparkconf) val rdd = sc.makeRDD(List(1, 2, 3, 4, 5, 6, 7, 8, 8, 2), 2) private val rdd1: RDD[(Int, Iterable[Int])] = rdd.groupBy( e => e ) private val rdd2: RDD[Int] = rdd1.map(_._1) println(s
"當前分割槽數 : ${rdd1.getNumPartitions}") println(rdd2.collect().mkString(",")) sc.stop() }