亚洲激情专区-91九色丨porny丨老师-久久久久久久女国产乱让韩-国产精品午夜小视频观看

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Linux如何安裝Hadoop和Hbase

發布時間:2021-10-29 09:48:39 來源:億速云 閱讀:191 作者:小新 欄目:系統運維

這篇文章主要介紹了Linux如何安裝Hadoop和Hbase,具有一定借鑒價值,感興趣的朋友可以參考下,希望大家閱讀完這篇文章之后大有收獲,下面讓小編帶著大家一起了解一下。

三臺CentOS7主機

  • 192.168.122.101 hdfs1

  • 192.168.122.102 hdfs2

  • 192.168.122.103 hdfs3

其中hdfs1為主節點,其他為從節點。

安裝配置三臺都是一樣的,做ssh免密碼驗證,如果只要在主節點hdfs1操作,只做hdfs1到其他節點信任即可。

如果三臺都互相信任,這樣子在哪臺都可以操作是一樣的。

修改內核參數

  1. vim /etc/sysctl.conf 


net.ipv4.tcp_syn_retries = 1 net.ipv4.tcp_synack_retries = 1 net.ipv4.tcp_keepalive_time = 600 net.ipv4.tcp_keepalive_probes = 3 net.ipv4.tcp_keepalive_intvl =15 net.ipv4.tcp_retries2 = 5 net.ipv4.tcp_fin_timeout = 2 net.ipv4.tcp_max_tw_buckets = 65536 net.ipv4.tcp_tw_recycle = 1 net.ipv4.tcp_tw_reuse = 1 net.ipv4.tcp_max_orphans = 32768 net.ipv4.tcp_syncookies = 1 net.ipv4.tcp_max_syn_backlog = 16384 net.ipv4.tcp_wmem = 8192 131072 16777216 net.ipv4.tcp_rmem = 32768 131072 16777216 net.ipv4.tcp_mem = 786432 1048576 1572864 net.ipv4.ip_local_port_range = 1024 65000 net.ipv4.ip_conntrack_max = 65536 net.ipv4.netfilter.ip_conntrack_max=65536 net.ipv4.netfilter.ip_conntrack_tcp_timeout_established=180 net.core.somaxconn = 16384 net.core.netdev_max_backlog = 16384 vm.max_map_count = 262144

修改句柄限制

  1. vim /etc/security/limits.conf 


* soft noproc 655360 * hard noproc 655360 * soft nofile 655360 * hard nofile 655360

設置主機名解析

在不同的節點,設置對應的主機名

hostnamectl set-hostname hdfs1

 Linux如何安裝Hadoop和Hbase

添加hosts記錄,也可以使用dns進行解析,比較靈活。

  1. vim /etc/hosts 


192.168.122.101   hdfs1 192.168.122.102   hdfs2 192.168.122.103   hdfs3

創建用戶和目錄

useradd  hadoop  passwd hadoop mkdir -p  /apps/ mkdir -pv /data/hdfs/hadoop mkdir -pv /data/hdfs/hbase chown hadoop.hadoop  /data/hadoop   /data/hbase

設置ssh免密碼

su - hadoop  ssh-keygen  ssh-copy-id hadoop@hdfs1  ssh-copy-id hadoop@hdfs1  ssh-copy-id hadoop@hdfs1

ssh-keygen產生密鑰的時候一直回車就可以完成創建

ssh-copy-id的時候需要輸入hadoop的密碼

下載jdk

下載地址:

www.oracle.com/java/technologies/javase/javase-jdk8-downloads.html

需要登陸之后才能下載

tar zxvf jdk-8u271-linux-x64.tar.gz mv jdk-8u271-linux-x64 /apps/ cd /apps/ ln -s jdk1.8.0_271 jdk cd -  if grep '# modify by script' /etc/profile >>/dev/null 2>&1; then     echo "alread set JAVA_HOME" else     cp /etc/profile /etc/profile_bak$(date +%Y%m%d%H%M%S)     cat >>/etc/profile <<EOF # modify by script export JAVA_HOME=/apps/jdk export PATH=\${JAVA_HOME}/bin:/apps/hadoop/bin:/apps/hbase/bin:\$PATH EOF fi

下載hadoop和hbase

  1. mirrors.aliyun.com/apache/hadoop/common/hadoop-2.7.7/hadoop-2.7.7.tar.gz 

  2.  

  3. archive.apache.org/dist/hbase/1.3.5/hbase-1.3.5-bin.tar.gz 


tar zxvf hadoop-2.7.7.tar.gz tar zxvf hbase-1.3.5-bin.tar.gz mv hadoop-2.7.7  hbase-1.3.5   /apps/ cd /apps ln -s hadoop-2.7.7 hadoop ln -s hbase-1.3.5 hbase cd -

配置hadoop

1.配置namenod

vim /apps/hadoop/etc/hadoop/core-site.xml

添加內容

<configuration>  <property>     <!-- 指定namenode通信地址 -->         <name>fs.defaultFS</name>         <value>hdfs://hdfs1:9000</value>     </property>     <!-- 指定hadoop運行時產生文件的存儲路徑 -->     <property>         <name>hadoop.tmp.dir</name>         <value>/data/hdfs/hadoop/tmp</value>     </property> </configuration>

2.配置namenode和datanode

vim /apps/hadoop/etc/hadoop/hdfs-site.xml

在文件后面添加內容

<configuration>   <!-- 設置namenode的http通訊地址 -->     <property>         <name>dfs.namenode.http-address</name>         <value>hdfs1:50070</value>     </property>      <!-- 設置secondarynamenode的http通訊地址 -->     <property>         <name>dfs.namenode.secondary.http-address</name>         <value>hdfs2:50070</value>     </property>      <!-- 設置namenode存放的路徑 -->     <property>         <name>dfs.namenode.name.dir</name>         <value>/data/hdfs/hadoop/name</value>     </property>      <!-- 設置hdfs副本數量 -->     <property>         <name>dfs.replication</name>         <value>2</value>     </property>     <!-- 設置datanode存放的路徑 -->     <property>         <name>dfs.datanode.data.dir</name>         <value>/data/hdfs/hadoop/datanode</value>     </property>      <property>         <name>dfs.permissions</name>         <value>false</value>     </property> </configuration>

3.配置環境變量

vim /apps/hadoop/etc/hadoop/hadoo-env.sh

修改JAVA_HOME

export JAVA_HOME=/apps/jdk

也可以根據具體的需求設置堆棧之類的參數

4.設置主節點

vim /apps/hadoop/etc/hadoop/master

添加主節點,一般使用主機名

hdfs1

5.設置從節點

vim /apps/hadoop/etc/hadoop/slave

添加從節點,一般使用主機名

hdfs1  hdfs2  hdfs3

配置hbase

1.配置環境變量

vim /apps/hbase/conf/hbase-env.sh

修改JAVA_HOME變量即可

export JAVA_HOME=/apps/jdk

也可以根據具體的需求設置堆棧之類的參數

2.設置hadoop和zookeeper等信息

vim /apps/hbase/conf/hbase-site.xml

添加內容

<configuration> <property>         <name>hbase.rootdir</name>     <!-- hbase存放數據目錄 -->         <value>hdfs://hdfs1:9000/hbase/hbase_db</value>         <!-- 端口要和Hadoop的fs.defaultFS端口一致--> </property> <property>         <name>hbase.cluster.distributed</name>      <!-- 是否分布式部署 -->         <value>true</value> </property> <property>         <name>hbase.zookeeper.quorum</name>         <!-- zookooper 服務啟動的節點,只能為奇數個 -->         <value>hdfs1,hdfs2,hdfs3</value> </property> <property>         <!--zookooper配置、日志等的存儲位置,必須為以存在 -->         <name>hbase.zookeeper.property.dataDir</name>         <value>/data/hdfs/hbase/zookeeper</value> </property> <property>         <!--hbase web 端口 -->         <name>hbase.master.info.port</name>         <value>16610</value> </property> </configuration>
  1. vim /apps/hbase/conf/regionservers 


hdfs1 hdfs2 hdfs3

啟動測試

su - hadoop  /apps/hadoop/sbin/start-all.sh /apps/hbase/bin/start-hbase.sh

感謝你能夠認真閱讀完這篇文章,希望小編分享的“Linux如何安裝Hadoop和Hbase”這篇文章對大家有幫助,同時也希望大家多多支持億速云,關注億速云行業資訊頻道,更多相關知識等著你來學習!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

抚州市| 杂多县| 南充市| 长兴县| 台山市| 浏阳市| 惠安县| 石河子市| 宣恩县| 土默特左旗| 三原县| 石台县| 黑水县| 伊金霍洛旗| 呈贡县| 抚宁县| 根河市| 仙桃市| 兴安县| 京山县| 鄂州市| 上犹县| 凤城市| 阳曲县| 铁岭县| 济宁市| 洛隆县| 阜新市| 永济市| 峨山| 喀喇沁旗| 怀来县| 天长市| 梓潼县| 黎川县| 南乐县| 乃东县| 顺昌县| 屏东市| 遂溪县| 英德市|