您好,登錄后才能下訂單哦!
本篇內容介紹了“hadoop多次格式化后導致datanode啟動不了怎么辦”的有關知識,在實際案例的操作過程中,不少人都會遇到這樣的困境,接下來就讓小編帶領大家學習一下如何處理這些情況吧!希望大家仔細閱讀,能夠學有所成!
hadoop namenode -format
多次格式化后,datanode啟動不了
0.20.2版本解決方式:
1、查看名稱節點上(即在配置文件中配置的hadoop.tmp.dir參數路徑)/usr/hadoop0.20.2/hadoop-huanghz/dfs/name/current/文件夾中VERSION文件中的namespaceid;
2、在兩個數據節點修改上dfs.data.dir配置的路徑下current文件夾中的VERSION文件namespaceid與名稱節點保持一致
2.20版本解決
/data/hadoop/dfs/name/current/VERSION
用name下面的clusterID,修改datanode的/data/hadoop/dfs/data/current/VERSION 里面的clusterID
每次格式化,name下面的VERSION的clusterID會產生一個新的ID,要去修改各個節點的VERSION的clusterID
……/dfs/data/current
storageID=DS-1959445666-10.161.138.100-50010-1386493413986 clusterID=CID-64a3a726-29e4-4d80-86a6-035ef33a225b cTime=0 storageType=DATA_NODE layoutVersion=-47
……/dfs/name/current/VERSION
#Fri Jan 03 10:37:48 CST 2014 namespaceID=1667984727 clusterID=CID-42c6d540-c3ca-44df-95e8-01a6d87effb5 cTime=0 storageType=NAME_NODE blockpoolID=BP-220196921-10.161.138.100-1388716668863 layoutVersion=-47
“hadoop多次格式化后導致datanode啟動不了怎么辦”的內容就介紹到這里了,感謝大家的閱讀。如果想了解更多行業相關的知識可以關注億速云網站,小編將為大家輸出更多高質量的實用文章!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。