国产探花免费观看_亚洲丰满少妇自慰呻吟_97日韩有码在线_资源在线日韩欧美_一区二区精品毛片,辰东完美世界有声小说,欢乐颂第一季,yy玄幻小说排行榜完本

首頁 > 學院 > 操作系統 > 正文

Spark經典案例3-數據排序

2024-06-28 16:01:09
字體:
來源:轉載
供稿:網友

業務場景:數據排序

1、”數據排序”是許多實際任務執行時要完成的第一項工作, 比如學生成績評比、數據建立索引等。這個實例和數據去重類似,都是先對原始數據進行初步處理,為進一步的數據操作打好基礎。 1)、需求描述 對輸入文件中數據進行排序。輸入文件中的每行內容均為一個數字,即一個數據。 要求在輸出中每行有兩個間隔的數字,其中,第一個代表原始數據在原始數據集中的位次,第二個代表原始數據。

2)輸入文件 file1: 2 32 654 32 15 756 65223

file2: 5956 22 650 92

file3: 26 54 6

樣例輸出: 1 2 2 6 3 15 4 22 5 26 6 32 7 32 8 54 9 92 10 650 11 654 12 756 13 5956 14 65223

package ClassicCaseimport org.apache.spark.{SparkConf, SparkContext}/** * 業務場景:數據排序 * Created by YJ on 2017/2/8. */object case3 { def main(args: Array[String]): Unit = { val conf = new SparkConf().setMaster("local").setAppName("reduce") val sc = new SparkContext(conf) sc.setLogLevel("ERROR") val three = sc.textFile("hdfs://192.168.109.130:8020//user/flume/ClassicCase/case3") var idx = 0 //由入輸入文件有多個,產生不同的分區,為了生產序號,使用HashPartitioner將中間的RDD歸約到一起。 import org.apache.spark.HashPartitioner val res = three.filter(_.trim().length>0) //清洗數據 .map(num=>(num.trim.toInt,"")) //轉換數據 .partitionBy(new HashPartitioner(1)) //將所有數據放到一個分區 .sortByKey() //按自然順序排序 .map(t => { //整理輸出格式 idx += 1 (idx,t._1)} ).collect.foreach(x => PRintln(x._1 +"/t" + x._2) ) }}

輸出結果: 1 2 2 6 3 15 4 22 5 26 6 32 7 32 8 54 9 92 10 650 11 654 12 756 13 5956 14 65223


發表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發表
主站蜘蛛池模板: 利辛县| 阿拉尔市| 阿荣旗| 渝北区| 探索| 广西| 陈巴尔虎旗| 马边| 休宁县| 宣汉县| 准格尔旗| 会理县| 晋城| 芜湖市| 张家界市| 曲周县| 东乌| 永寿县| 永川市| 勃利县| 顺义区| 湘阴县| 通辽市| 凤山县| 克什克腾旗| 新乐市| 嵊泗县| 嘉鱼县| 仙居县| 巴林左旗| 高邮市| 彝良县| 延川县| 揭西县| 浦县| 满洲里市| 赫章县| 盐边县| 牡丹江市| 德化县| 南溪县|