您好,登錄后才能下訂單哦!
這篇文章主要介紹“如何通過web查看hdfs集群狀態”,在日常操作中,相信很多人在如何通過web查看hdfs集群狀態問題上存在疑惑,小編查閱了各式資料,整理出簡單好用的操作方法,希望對大家解答”如何通過web查看hdfs集群狀態”的疑惑有所幫助!接下來,請跟著小編一起來學習吧!
問題導讀: 1.如何通過web查看hdfs集群狀態 2.如何通過web查看運行在在主節點master上ResourceManager狀態 3.如何通過web查看運行在在slave節點NodeManager資源狀態 4.JobHistory 可以查看什么信息 |
本文是在hadoop2的基礎上hadoop2完全分布式最新高可靠安裝文檔的一個繼續。
hadoop2.2安裝完畢,我們該怎么使用它,這里做一些簡單的介紹
一、可以通過登錄Web控制臺,查看HDFS集群狀態,訪問如下地址:
http://master:50070/
復制代碼
來源:
組件 :HDFS
節點 :NameNode
默認端口:50070
配置 :dfs.namenode.http-address
用途說明:http服務的端口
hadoop2.x常用端口及定義方法(可收藏方便以后查詢)
二、ResourceManager運行在主節點master上,可以Web控制臺查看狀態
http://master:8088/
復制代碼
如果你的主機名不是master,按照下面格式來訪問。
http://ip地址:8088/
復制代碼
或則
http://hostname:8088/
復制代碼
這里介紹8088的來源:
yarn-site.xml中的屬性:
<property>
<name>yarn.resourcemanager.webapp.address</name>
<value>master:8088</value>
</property>
三、NodeManager運行在從節點上,可以通過Web控制臺查看對應節點的資源狀態,例如節點slave1:
http://slave1:8042/
復制代碼
來源:
組件 :YARN
節點 :NodeManager
默認端口:8042
配置 :yarn.nodemanager.webapp.address
用途說明:http服務端口
四、管理JobHistory Server
啟動可以JobHistory Server,能夠通過Web控制臺查看集群計算的任務的信息,執行如下命令:
mr-jobhistory-daemon.sh start historyserver
復制代碼
默認使用19888端口。
通過訪問http://master:19888/
來源:
組件 :YARN
節點 :JobHistory Server
默認端口:19888
配置 :mapreduce.jobhistory.webapp.address
用途說明:http服務端口
以上所有端口都可以從hadoop2.x常用端口及定義方法(可收藏方便以后查詢)文章中找到。
終止JobHistory Server,執行如下命令:
mr-jobhistory-daemon.sh stop historyserver
復制代碼
概述
文件系統 (FS) shell 包括各種類似的命令直接與 Hadoop Distributed File System (HDFS)交互。hadoop也支持其它文件系統,比如 Local FS, HFTP FS, S3 FS, 和 其它的. FS shell被下面調用:
[Bash shell] 純文本查看 復制代碼
?
1 |
|
所有的FS shell命令帶有URIs路徑參數。The URI 格式是://authority/path。對 HDFS文件系統,scheme是hdfs。其中scheme和 authority參數都是可選的
如果沒有指定,在文件中使用默認scheme.一個hdfs文件或則目錄比如 /parent/child,可以是 hdfs://namenodehost/parent/child 或則簡化為/parent/child(默認配置設置成指向hdfs://namenodehost).大多數FS shell命令對應 Unix 命令.每個命令都有不同的描述。將錯誤信息發送到標準錯誤輸出和輸出發送到stdout。
appendToFile【添加文件】
用法: hadoop fs -appendToFile <localsrc> ... <dst>添加單個src,或則多個srcs從本地文件系統到目標文件系統。從標準輸入讀取并追加到目標文件系統。
hadoop fs -appendToFile localfile /user/hadoop/hadoopfile
hadoop fs -appendToFile localfile1 localfile2 /user/hadoop/hadoopfile
hadoop fs -appendToFile localfile hdfs://nn.example.com/hadoop/hadoopfile
hadoop fs -appendToFile - hdfs://nn.example.com/hadoop/hadoopfile Reads the input from stdin.
返回代碼:
返回 0成功返回 1 錯誤
cat
用法: hadoop fs -cat URI [URI ...]
將路徑指定文件的內容輸出到stdout
例子:
hadoop fs -cat hdfs://nn1.example.com/file1 hdfs://nn2.example.com/file2
hadoop fs -cat file:///file3 /user/hadoop/file4
返回代碼:
返回 0成功返回 1 錯誤
checksum
用法: hadoop fs -checksum URI
返回 checksum 文件信息
例子:
hadoop fs -checksum hdfs://nn1.example.com/file1
hadoop fs -checksum file:///etc/hosts
chgrp
用法: hadoop fs -chgrp [-R] GROUP URI [URI ...]
改變文件所屬組. 必須是文件所有者或則超級用戶. 更多信息在 Permissions Guide.
選項
使用-R 將使改變在目錄結構下遞歸進行
chmod
用法: hadoop fs -chmod [-R] <MODE[,MODE]... | OCTALMODE> URI [URI ...]
更改文件的權限. 使用-R 將使改變在目錄結構下遞歸進行。 必須是文件所有者或則超級用戶. 更多信息在 Permissions Guide.
選項
使用-R 將使改變在目錄結構下遞歸進行。
chown
用法: hadoop fs -chown [-R] [OWNER][:[GROUP]] URI [URI ]
更改文件的所有者. 使用-R 將使改變在目錄結構下遞歸進行。 必須是文件所有者或則超級用戶. 更多信息在 Permissions Guide.
選項
使用-R 將使改變在目錄結構下遞歸進行。
copyFromLocal
用法: hadoop fs -copyFromLocal <localsrc> URI
類似put命令, 需要指出的是這個限制是本地文件
選項:
-f 選項會重寫已存在的目標文件
copyToLocal
用法: hadoop fs -copyToLocal [-ignorecrc] [-crc] URI <localdst>
與get命令類似, 除了限定目標路徑是一個本地文件外。
count
用法: hadoop fs -count [-q] [-h] [-v] <paths>統計目錄個數,文件和目錄下文件的大小。輸出列:DIR_COUNT, FILE_COUNT, CONTENT_SIZE, PATHNAME
【目錄個數,文件個數,總大小,路徑名稱】
輸出列帶有 -count -q 是: QUOTA, REMAINING_QUATA, SPACE_QUOTA, REMAINING_SPACE_QUOTA, DIR_COUNT, FILE_COUNT, CONTENT_SIZE, PATHNAME
【配置,其余指標,空間配額,剩余空間定額,目錄個數,文件個數,總大小,路徑名稱】
The -h 選項,size可讀模式.
The -v 選項顯示一個標題行。
Example:
hadoop fs -count hdfs://nn1.example.com/file1 hdfs://nn2.example.com/file2
hadoop fs -count -q hdfs://nn1.example.com/file1
hadoop fs -count -q -h hdfs://nn1.example.com/file1
hdfs dfs -count -q -h -v hdfs://nn1.example.com/file1
返回代碼:
返回 0成功返回 1 錯誤
cp
用法: hadoop fs -cp [-f] [-p | -p[topax]] URI [URI ...] <dest>復制文件,這個命令允許復制多個文件到一個目錄。
‘raw.*’ 命名空間擴展屬性被保留
(1)源文件和目標文件支持他們(僅hdfs)
(2)所有的源文件和目標文件路徑在 /.reserved/raw目錄結構下。
決定是否使用 raw.*命名空間擴展屬性依賴于-P選項
選項:
-f 選項如果文件已經存在將會被重寫.
-p 選項保存文件屬性 [topx] (timestamps, ownership, permission, ACL, XAttr). 如果指定 -p沒有參數, 保存timestamps, ownership, permission. 如果指定 -pa, 保留權限 因為ACL是一個權限的超級組。確定是否保存raw命名空間屬性取決于是否使用-p決定
例子:
hadoop fs -cp /user/hadoop/file1 /user/hadoop/file2
hadoop fs -cp /user/hadoop/file1 /user/hadoop/file2 /user/hadoop/dir
返回代碼:
返回 0成功返回 1 錯誤
createSnapshot
查看 HDFS Snapshots Guide.
deleteSnapshot
查看 HDFS Snapshots Guide.
df【查看還剩多少hdfs空間】
用法: hadoop fs -df [-h] URI [URI ...]
顯示剩余空間
選項:
-h 選項會讓人更加易讀 (比如 64.0m代替 67108864)
Example:
hadoop dfs -df /user/hadoop/dir1
du
用法: hadoop fs -du [-s] [-h] URI [URI ...]顯示給定目錄的文件大小及包含的目錄,如果只有文件只顯示文件的大小
選項:
-s 選項匯總文件的長度,而不是現實單個文件.
-h 選項顯示格式更加易讀 (例如 64.0m代替67108864)
例子:
hadoop fs -du /user/hadoop/dir1 /user/hadoop/file1 hdfs://nn.example.com/user/hadoop/dir1
返回代碼:
返回 0成功返回 1 錯誤
dus
用法: hadoop fs -dus <args>
顯示統計文件長度
注意:這個命令已被啟用, hadoop fs -du -s即可
expunge
用法: hadoop fs -expunge
清空垃圾回收站. 涉及 HDFS Architecture Guide 更多信息查看回收站特點
find
用法: hadoop fs -find <path> ... <expression> ...查找與指定表達式匹配的所有文件,并將選定的操作應用于它們。如果沒有指定路徑,則默認查找當前目錄。如果沒有指定表達式默認-print
下面主要表達式:
-name 模式
-iname 模式
如果
值為TRUE如果文件基本名匹配模式使用標準的文件系統組合。如果使用-iname匹配不區分大小寫。
-print
-print0Always
值為TRUE. 當前路徑被寫至標準輸出。如果使用 -print0 表達式, ASCII NULL 字符是追加的.
下面操作:
expression -a expression
expression -and expression
expression expression
and運算符連接兩個表達式,如果兩個字表達式返回true,則返回true.由兩個表達式的并置暗示,所以不需要明確指定。如果第一個失敗,則不會應用第二個表達式。
例子:
hadoop fs -find / -name test -print
返回代碼:
返回 0成功返回 1 錯誤
get
用法: hadoop fs -get [-ignorecrc] [-crc] <src> <localdst>復制文件到本地文件。
復制文件到本地文件系統. 【CRC校驗失敗的文件復制帶有-ignorecrc選項(如翻譯有誤歡迎指正)】
Files that fail the CRC check may be copied with the -ignorecrc option.
文件CRC可以復制使用CRC選項。
例子:
hadoop fs -get /user/hadoop/file localfile
hadoop fs -get hdfs://nn.example.com/user/hadoop/file localfile
返回代碼:
返回 0成功返回 1 錯誤
到此,關于“如何通過web查看hdfs集群狀態”的學習就結束了,希望能夠解決大家的疑惑。理論與實踐的搭配能更好的幫助大家學習,快去試試吧!若想繼續學習更多相關知識,請繼續關注億速云網站,小編會繼續努力為大家帶來更多實用的文章!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。