您好,登錄后才能下訂單哦!
Hadoop-HBASE 熱添加新節點
環境:
192.168.137.101 hd1
192.168.137.102 hd2
192.168.137.103 hd3
192.168.137.104 hd4
四節點hadoop和hbase
1、設置hostname
vi /etc/sysconfig/network
hostname hd5
設置完畢后需要退出重新登錄下方可生效
查看防火墻狀態:service iptables status
停用防火墻:service iptables stop
2、hd5中修改/etc/hosts
加入 192.168.137.105 hd5
3、分發其到所有hd1, hd2, hd3, hd4
scp /etc/hosts hd1:/etc
scp /etc/hosts hd2:/etc
scp /etc/hosts hd3:/etc
scp /etc/hosts hd4:/etc
4、在hd5節點刪除原來的.ssh中的共鑰私鑰文件,重新生成
cd ~/.ssh
rm id_rsa
rm id_rsa.pub
ssh-keygen -t rsa
5、將原先hd1節點中的authorized_keys文件拷貝到hd5,再加入新共鑰
cat ~/.ssh/id_rsa.pub >> authorized_keys
6、分發改文件到其它各節點
scp ~/.ssh/authorized_keys hd1:/home/hadoop/.ssh
scp ~/.ssh/authorized_keys hd2:/home/hadoop/.ssh
scp ~/.ssh/authorized_keys hd3:/home/hadoop/.ssh
scp ~/.ssh/authorized_keys hd4:/home/hadoop/.ssh
7、前往各個節點進行第一次到hd5的ssh登錄(hd5本地的也做一次回環ssh登錄比較好)
在hd1, ssh hd5 date
在hd2, ssh hd5 date
在hd3, ssh hd5 date
在hd4, ssh hd5 date
在hd5, ssh hd5 date
8、將某節點上的hadoop和hbase安裝文件拷貝到新節點上,然后修改配置文件
在hd5修改hadoop的slave文件
vim /home/hadoop/hadoop/etc/hadoop/slaves
加入hd5
分發其到其它節點
scp /home/hadoop/hadoop/etc/hadoop/slaves hd1:/home/hadoop/etc/hadoop
scp /home/hadoop/hadoop/etc/hadoop/slaves hd2:/home/hadoop/etc/hadoop
scp /home/hadoop/hadoop/etc/hadoop/slaves hd3:/home/hadoop/etc/hadoop
scp /home/hadoop/hadoop/etc/hadoop/slaves hd4:/home/hadoop/etc/hadoop
9、在hd5啟動datanode
./hadoop-daemon.sh start datanode
10、在hd5啟動start-balancer.sh均衡當前hdfs塊
start-balancer.sh
11、如果還有hbase在上面運行則需要部署hbase的hserver
修改
vim /home/hadoop/hbase/conf/regionservers
加入hd5 并復制regionservers文件到hd1,hd2,hd3,hd4
scp regionservers hd1:/home/hadoop/hbase/conf
scp regionservers hd2:/home/hadoop/hbase/conf
scp regionservers hd3:/home/hadoop/hbase/conf
scp regionservers hd4:/home/hadoop/hbase/conf
13、在hd5啟動hbase regionserver
hbase-daemon.sh start regionserver
14、在hd1和hd5啟動hbase shell
用status命令確認一下集群情況
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。