亚洲激情专区-91九色丨porny丨老师-久久久久久久女国产乱让韩-国产精品午夜小视频观看

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Hadoop 2.4安裝與配置

發布時間:2020-08-06 03:14:24 來源:網絡 閱讀:277 作者:liyong0802 欄目:大數據

一、hadoop2.4編譯方法可參考:Linux64位操作系統(CentOS6.6)上如何編譯hadoop2.4.0

二、準備工具

1.部署準備兩個機器test1為Master,test2為Slave。

 在兩個機器上分別vim /etc/hosts,加入如下內容:  

192.168.1.100 test1  
192.168.1.200 test2

2.增加hadoop用戶

groupadd hadoop  
useradd hadoop -g hadoop  
passwd hadoop

3.設置Master無密碼登錄slave

 在test1下生成公鑰/私鑰對并復制到test2上。  

su hadoop  
ssh-keygen -t rsa -P ''  
scp ~/.ssh/id_rsa.pub hadoop@test2:~/.ssh/id_rsa.pub

 test2把從test1復制的id_rsa.pub添加到.ssh/authorzied_keys文件里  

cat id_rsa.pub >> authorized_keys  
chmod 600 .ssh/authorized_keys

4.修改句柄數:

ulimit -n 65535  
vim /etc/security/limits.conf增加如下內容:  
\*    hard    nofile   65535  
\*    soft    nofile   65535

三、配置hadoop

  將編譯好的hadoop2.4.0解壓后修改etc/hadoop目錄里的配置文件。

1.修改hadoop-env.sh

export JAVA_HOME=/opt/jdk

2.修改core-site.xml

<property>  
    <name>fs.default.name</name>  
    <value>hdfs://HDP125:9000</value>  
</property>  
<property>  
    <name>hadoop.tmp.dir</name>  
    <value>/home/${user.name}/tmp</value>  
</property>  
<property>  
    <name>fs.trash.interval</name>  
    <value>1440</value>  
</property>

 說明:

  fs.defaultDFS:設置NameNode的IP和端口

  hadoop.tmp.dir:設置Hadoop臨時目錄,(默認/tmp,機器重啟會丟失數據!)

  fs.trash.interval:開啟Hadoop回收站 

3.修改hdfs-site.xml

<property>  
    <name>dfs.replication</name>  
    <value>1</value>  
</property>  
<property>  
    <name>dfs.namenode.name.dir</name>  
    <value>/home/${user.name}/dfs_name</value>  
</property>  
<property>  
    <name>dfs.datanode.data.dir</name>  
    <value>/home/${user.name}/dfs_data</value>  
</property>  
<property>  
    <name>dfs.support.append</name>  
    <value>true</value>  
</property>  
<property>  
    <name>dfs.datanode.max.xcievers</name>  
    <value>4096</value>  
</property>

 說明:

  dfs.replication:文件復本數

  dfs.namenode.name.dir:設置NameNode存儲元數據(fsp_w_picpath)的本地文件系統位置

  dfs.datanode.data.dir:設置DataNode存儲數據的本地文件系統位置

  dfs.support.append:設置HDFS是否支持在文件末尾追加數據

  dfs.datanode.max.xcievers:設置datanode可以創建的最大xcievers數

4.修改yarn-site.xml

<property>  
  <name>yarn.nodemanager.aux-services</name>  
  <value>mapreduce_shuffle</value>  
</property>  
<property>  
  <name>yarn.resourcemanager.hostname</name>  
  <value>master</value>  
</property>  
<property>  
  <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>  
  <value>org.apache.hadoop.mapred.ShuffleHandler</value>  
</property>  
<property>  
  <name>yarn.timeline-service.hostname</name>  
  <value>master</value>  
</property>

5.修改mapred-site.xml

<property>  
  <name>mapreduce.framework.name</name>  
  <value>yarn</value>  
</property>

6.修改slave

test1  
test2

7.把配置好的Hadoop程序復制到其它節點

scp -r /opt/hadoop hadoop@test2:/opt/  
chown -R hadoop:hadoop /opt/hadoop

 

四、啟動和關閉hadoop

1.第一次使用一個分布式文件系統,需要對其進行格式化:

./bin/hadoop namenode –format

2.啟動Hadoop:

sbin/start-all.sh

3.關閉Hadoop:

sbin/start-all.sh

4.Hadoop自帶的WEB管理界面

   http://test1:50070

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

东乌| 龙里县| 建阳市| 巴彦县| 涟水县| 阳西县| 桑植县| 衡南县| 右玉县| 新平| 自治县| 沐川县| 如东县| 石棉县| 日照市| 泾源县| 溧阳市| 许昌市| 通海县| 宁河县| 铜陵市| 河源市| 惠水县| 博湖县| 股票| 太原市| 九台市| 安达市| 图们市| 南漳县| 清新县| 凤城市| 车险| 长顺县| 吉安市| 舒城县| 博野县| 永昌县| 茶陵县| 墨江| 东安县|