Monday, May 16, 2016

建立HDFS


http://glj8989332.blogspot.tw/2015/09/hadoop-hdfs-mapreduce-wordcount.html

0.jps



成功上傳:


1.建立HDFS

安裝好Hadoop Cluster後,接著要在HDFS放上資料,並執行Hadoop經典的程式範例 - Wordcount。其程式名稱如字面所示,是可以計算文字檔裡面詞彙的數量。
  
  安裝的那一篇前言提到,HDFS(Hadoop Distributed File System)是分散式的檔案系統,要透過Hadoop做運算,都得從HDFS存取資料。
  
  首先我們把local的資料搬到HDFS上,將hadoop/etc/hadoop/目錄下各種參數設定的檔案搬過去,在hadoop01(slaves也行)要下此指令:

?
1
hadoop dfs -put ~/hadoop-2.7.1/etc/hadoop /input01

  先來分析這指令,
  1.  dfs:要做HDFS的存取,都要用這參數,或者使用fs行,兩種功能是一樣的。
  2. -put:要從server local的資料搬到HDFS上,要用此-put參數
  3. src_dir1 src_dir2 ...:-put後面接著的參數是local資料的路徑,其目錄可以不只1個,而本篇是只有用1個目錄:~/hadoop-2.7.1/etc/hadoop。
  4. des_dir:-put最後一個的參數則是HDFS的目錄,本篇是放在/input01下。原先我的HDFS沒有/input01這目錄,使用-put後,Hadoop會自動創立此目錄。
更多的HDFS command指令請參考Hadoop Documentation File System Shell Guide ,和Linux的檔案系統指令非常相像,若有熟悉使用Linux將會很快上手。


  放上去之後,一起用web介面查看是否有上傳成功,其畫面如下:

No comments:

Post a Comment