国产探花免费观看_亚洲丰满少妇自慰呻吟_97日韩有码在线_资源在线日韩欧美_一区二区精品毛片,辰东完美世界有声小说,欢乐颂第一季,yy玄幻小说排行榜完本

首頁 > 學院 > 開發設計 > 正文

跟天齊老師學Spark(4)--Spark整合hdfs

2019-11-11 05:20:46
字體:
來源:轉載
供稿:網友
spark整合hdfs:需求:從hdfs中讀取數據,用spark計算,再寫到hdfs中。啟動zookeeper;啟動hadoop的hdfs;然后啟動spark(我們這里就不啟動高可用集群了,這里只啟動一個Master);向spark集群提交任務;spark-shell中寫的程序僅僅是做實驗;實際開發中,是先在IDE中開發spark程序,然后打包,提交到集群。然后用腳本或調度框架來調度。我們這里在spark-shell中寫一個spark程序:讀取hdfs中的數據的話,先指定hdfs的地址,你可以將hadoop的兩個配置文件hdfs-site.xml和core-site.xml拷貝到spark的conf目錄下,但是我們這里因為是測試,所以hdfs的地址寫死了:sc.textFile("hdfs://hadoop01:9000/wc").flatMap(_.split(" ")).map((_,1)).reduceByKey(_+_).sortBy(_._2,false).saveAsTextFile("hdfs://hadoop01:9000/wc/out05")上面的spark-shell只是在測試或者學習的時候常用的方式。在生產中,一般是在開發工具中開發好程序,然后將程序打成jar包,在提交到spark集群上運行。
發表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發表
主站蜘蛛池模板: 黄陵县| 莱芜市| 来安县| 长治市| 河间市| 绍兴县| 酒泉市| 辉南县| 平乐县| 宁蒗| 隆德县| 墨竹工卡县| 双江| 千阳县| 潢川县| 桂东县| 阿拉善左旗| 新郑市| 广宗县| 修文县| 扶沟县| 如皋市| 炉霍县| 饶阳县| 和政县| 洛浦县| 都兰县| 普兰店市| 龙门县| 高台县| 津南区| 铜山县| 繁昌县| 东辽县| 凯里市| 宜兰市| 六安市| 鹤峰县| 运城市| 吉木萨尔县| 伊宁市|