Hadoop FS 命令_第1頁
Hadoop FS 命令_第2頁
Hadoop FS 命令_第3頁
Hadoop FS 命令_第4頁
Hadoop FS 命令_第5頁
已閱讀5頁,還剩1頁未讀 繼續免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

1、1.1.11 test  使用方法:hadoop fs -test -ezd URI  選項: -e 檢查文件是否存在。如果存在則返回0;否則返回1。 -z 檢查文件是否是0字節。如果是則返回0;否則返回1。  -d 檢查路徑是否是目錄。如果是則返回0;否則返回1。 失去與Namenode的連接返回255。 示例: · hadoop fs -test -e&

2、#160;filename  1.1.12 du 使用方法:hadoop fs -du URI URI   顯示目錄中所有文件的大小,或者當只指定一個文件時,顯示此文件的大小。 示例: hadoop fs -du /user/hadoop/dir1 /user/hadoop/file1 hdfs:/host:port/user/hadoop/dir1  返回值: 成功返回0,失敗返回25

3、5(文件或目錄不存在;失去與Namenode的連接)。  1.1.13 dus  使用方法:hadoop fs -dus URI URI  顯示目錄中所有文件的總大小,而不會分別顯示出目錄中各個文件的大小;當只指定一個文件時,顯示此文件的大小。 1.1.14 touchz  使用方法:hadoop fs -touchz URI URI   創建一個0字節的空文件;如果文件已存在

4、則修改相應的mtime。 示例: · hadoop -touchz pathname  返回值: 成功返回0,失敗返回255(失去與Namenode的連接或Namenode處于安全模式)。  1.1.15 mv  使用方法:hadoop fs -mv URI URI  <dest>  將文件從源路徑移動到目標路徑。該命令允許有多個源路徑,此時目標路徑必須是一個目錄。

5、不允許在不同的文件系統間移動文件。  示例:  · hadoop fs -mv /user/hadoop/file1 /user/hadoop/file2  · hadoop fs -mv hdfs:/host:port/file1 hdfs:/host:port/file2 hdfs:/host:port/file3 hdfs:/host:port/dir1  返回值:

6、60;成功返回0,失敗返回255(源路徑不存在或目標路徑已存在;失去與Namenode的連接或Namenode處于安全模式)。  1.1.16 cp  使用方法:hadoop fs -cp URI URI  <dest>  將文件從源路徑復制到目標路徑。該命令允許有多個源路徑,此時目標路徑必須是一個目錄。需要注意的是,當目標文件已存在時,仍然會拷貝并覆蓋。  示例: · hadoop fs

7、60;-cp /user/hadoop/file1 /user/hadoop/file2  · hadoop fs -cp /user/hadoop/file1 /user/hadoop/file2 /user/hadoop/dir  返回值: 成功返回0,失敗返回255(源路徑不存在;失去與Namenode的連接或Namenode處于安全模式)。 1.1.17 cat 使用方法:hadoop fs -ca

8、t URI URI  將路徑指定文件的內容輸出到stdout。  示例: · hadoop fs -cat hdfs:/host1:port1/file1 hdfs:/host2:port2/file2  · hadoop fs -cat file:/file3 /user/hadoop/file4  返回值: 成功返回0,失敗返回255(路徑不是文件或不存

9、在;失去與Namenode的連接)。 1.1.18 tail  使用方法:hadoop fs -tail -f URI  將文件尾部1K字節的內容輸出到stdout。支持-f選項,行為和Unix中一致。  示例: · hadoop fs -tail pathname  返回值: 成功返回0,失敗返回255(路徑不是文件或不存在;失去與Namenode的連接)。  1.

10、1.19 setrep  使用方法:hadoop fs -setrep -R -w -d <rep> <path> 改變一個文件或目錄的副本系數。 選項: -R 遞歸改變目錄下所有文件的副本系數。 -w 等待副本系數調整完畢后返回。  -d 只修改目錄的副本系數,而不修改其第一級文件的副本系數。 示例: · hadoop fs

11、0;-setrep R 3 /user/hadoop/dir1  返回值: 成功返回0,失敗返回255(路徑不存在;失去與Namenode的連接或Namenode處于安全模式)。 1.1.20 stat  使用方法:hadoop fs -stat format URI 返回指定路徑的統計信息。 format選項: %b 統計指定文件(或目錄)占用的數據塊數目。 %n 顯示指定文件(或目錄)的名稱。

12、  %o 顯示指定文件(或目錄)一個數據塊的大小。 %r 顯示指定文件(或目錄)的副本系數。 %y, %Y 顯示指定文件(或目錄)的修改時間。 示例: · hadoop fs -stat path  返回值: 成功返回0,失敗返回255(路徑不存在;失去與Namenode的連接)。  1.1.21 getmerge  使用方法:hadoop fs 

13、-getmerge <src> <localdst> 接受一個源目錄和一個本地目標文件作為輸入,并且將源目錄中所有的文件連接成本地目標文件。 示例: · hadoop fs -getmerge mergedir localfile 返回值: 成功返回0,失敗返回255。 1.1.22 text  使用方法:hadoop fs -text <path> 

14、 將文件輸出為文本格式。允許的格式是zip和TextRecordInputStream。  1.1.23 chmod  使用方法:hadoop fs -chmod -R MODE URI URI   改變文件的權限。使用-R讓改變在目錄結構下遞歸進行。命令的使用者必須是文件的所有者或者超級用戶。 1.1.24 chown  使用方法:hadoop fs -chown -R OWNER:GROUP URI URI   改變文件的擁有者。使用-R讓改變在目錄結構下遞歸進行。命令的使用者必須是超級用戶。 1.1.25 chgrp  使用方法:hadoop fs -chgrp -R GROUP URI URI  改變文件所屬的

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業或盈利用途。
  • 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論