http://glj8989332.blogspot.tw/2015/09/hadoop-hdfs-mapreduce-wordcount.html
0.jps
成功上傳:
1.建立HDFS
安裝好Hadoop Cluster後,接著要在HDFS放上資料,並執行Hadoop經典的程式範例 - Wordcount。其程式名稱如字面所示,是可以計算文字檔裡面詞彙的數量。安裝的那一篇前言提到,HDFS(Hadoop Distributed File System)是分散式的檔案系統,要透過Hadoop做運算,都得從HDFS存取資料。
首先我們把local的資料搬到HDFS上,將hadoop/etc/hadoop/目錄下各種參數設定的檔案搬過去,在hadoop01(slaves也行)要下此指令:
1
| hadoop dfs -put ~/hadoop-2.7.1/etc/hadoop /input01 |
先來分析這指令,
- dfs:要做HDFS的存取,都要用這參數,或者使用fs行,兩種功能是一樣的。
- -put:要從server local的資料搬到HDFS上,要用此-put參數
- src_dir1 src_dir2 ...:-put後面接著的參數是local資料的路徑,其目錄可以不只1個,而本篇是只有用1個目錄:~/hadoop-2.7.1/etc/hadoop。
- des_dir:-put最後一個的參數則是HDFS的目錄,本篇是放在/input01下。原先我的HDFS沒有/input01這目錄,使用-put後,Hadoop會自動創立此目錄。
放上去之後,一起用web介面查看是否有上傳成功,其畫面如下:


No comments:
Post a Comment