国产探花免费观看_亚洲丰满少妇自慰呻吟_97日韩有码在线_资源在线日韩欧美_一区二区精品毛片,辰东完美世界有声小说,欢乐颂第一季,yy玄幻小说排行榜完本

首頁 > 學院 > 編程設計 > 正文

hadoop入門之hadoop集群驗證任務存放在不同的節點上

2020-07-14 13:30:02
字體:
來源:轉載
供稿:網友

Linux環境:CentOs6.4

Hadoop版本:Hadoop-1.1.2

master: 192.168.1.241      NameNode    JobTracker   DataNode   TaskTracker

slave:192.168.1.242    DataNode   TaskTracker

內容:想hadoop文件系統中上傳一個大文件,驗證文件分別分布在192.168.1.241節點和192.168.1.242節點上。

第一步: 前期工作:搭建Hadoop集群,

在hdfs-site.xml中的配置為2.


復制代碼
代碼如下:

<property>
<name>dfs.replication</name>
<value>2</value>
</property>

運行執行start-all.sh命令,運行結果如圖所示:

查看9000和9001的信息

9000是HDFS的入口9001是MapReduce的JobTracker的入口

從以上圖中可以確定Ip地址為192.168.1.241.

第二步:通過網頁查看節點的個數。在瀏覽器中輸入http://localhost:50070

以上看到LiveNodes的個數為2,說明啟動成功。

第三步:上傳大文件。具體步驟如圖所示:

通過網頁查看運行狀況:

大文件已經上傳成功.文件的大小是244.91MBlock的大小是64M。所以每個節點能夠有4個Block。

Replication為2,表明每個Block有2個備份。

查看節點的使用情況:

從圖中可以看出,此文件分成了4個Block。(TotalNumberofblocks:4)。

每個Block在兩個節點上進行了備份,分別是192.168.1.241192.168.1.242

hadoop集群至此測試結束。測試成功。

發表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發表
主站蜘蛛池模板: 明溪县| 贡觉县| 陇西县| 泰安市| 湘西| 克拉玛依市| 青岛市| 休宁县| 安宁市| 交口县| 文昌市| 萨嘎县| 吴川市| 得荣县| 宜兰市| 布尔津县| 望奎县| 涡阳县| 邯郸县| 漾濞| 安仁县| 康平县| 皮山县| 阳西县| 清镇市| 安西县| 澳门| 武宣县| 凭祥市| 安新县| 夏邑县| 丘北县| 白朗县| 郓城县| 樟树市| 同仁县| 五大连池市| 皮山县| 黄大仙区| 嘉善县| 东莞市|