国产探花免费观看_亚洲丰满少妇自慰呻吟_97日韩有码在线_资源在线日韩欧美_一区二区精品毛片,辰东完美世界有声小说,欢乐颂第一季,yy玄幻小说排行榜完本

首頁 > 學院 > 開發設計 > 正文

跟天齊老師學Spark(4)--Spark整合hdfs

2019-11-11 04:27:34
字體:
來源:轉載
供稿:網友
spark整合hdfs:需求:從hdfs中讀取數據,用spark計算,再寫到hdfs中。啟動zookeeper;啟動hadoop的hdfs;然后啟動spark(我們這里就不啟動高可用集群了,這里只啟動一個Master);向spark集群提交任務;spark-shell中寫的程序僅僅是做實驗;實際開發中,是先在IDE中開發spark程序,然后打包,提交到集群。然后用腳本或調度框架來調度。我們這里在spark-shell中寫一個spark程序:讀取hdfs中的數據的話,先指定hdfs的地址,你可以將hadoop的兩個配置文件hdfs-site.xml和core-site.xml拷貝到spark的conf目錄下,但是我們這里因為是測試,所以hdfs的地址寫死了:sc.textFile("hdfs://hadoop01:9000/wc").flatMap(_.split(" ")).map((_,1)).reduceByKey(_+_).sortBy(_._2,false).saveAsTextFile("hdfs://hadoop01:9000/wc/out05")上面的spark-shell只是在測試或者學習的時候常用的方式。在生產中,一般是在開發工具中開發好程序,然后將程序打成jar包,在提交到spark集群上運行。
上一篇:MyBatis.1入門篇

下一篇:文章標題

發表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發表
主站蜘蛛池模板: 保康县| 璧山县| 广饶县| 浮梁县| 南雄市| 宝丰县| 侯马市| 长兴县| 定兴县| 抚远县| 瓮安县| 洪湖市| 中宁县| 聊城市| 彭山县| 洛南县| 陕西省| 从江县| 阿勒泰市| 朝阳区| 南昌市| 巴彦淖尔市| 娱乐| 惠来县| 烟台市| 元朗区| 佛山市| 尼玛县| 长岛县| 会同县| 潞城市| 靖江市| 墨竹工卡县| 安龙县| 南丹县| 施秉县| 出国| 石景山区| 平安县| 霍城县| 罗城|