亚洲激情专区-91九色丨porny丨老师-久久久久久久女国产乱让韩-国产精品午夜小视频观看

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Hive Remote模式搭建

發布時間:2020-04-18 13:45:45 來源:網絡 閱讀:1021 作者:一語成讖灬 欄目:大數據

一、實驗環境

1.軟件版本:apache-hive-2.3.0-bin.tar.gz、mysql-community-server-5.7.19

2.mysql JDBC驅動包:mysql-connector-java-5.1.44.tar.gz

3.mysql已經安裝在hadoop5上

4..主機規劃

hadoop3

Remote:client
hadoop5Remote:server;mysql

二、基礎配置

1.解壓并移動hive

[root@hadoop5 ~]# tar -zxf apache-hive-2.3.0-bin.tar.gz
[root@hadoop5 ~]# cp -r apache-hive-2.3.0-bin /usr/local/hive

2.修改環境變量

[root@hadoop5 ~]# vim /etc/profile
export HIVE_HOME=/usr/local/hive
export PATH=$HIVE_HOME/bin:$PATH
[root@hadoop5 ~]# source /etc/profile

3.復制初始文件

[root@hadoop5 ~]# cd /usr/local/hive/conf/
[root@hadoop5 conf]# cp hive-env.sh.template hive-env.sh  
[root@hadoop5 conf]# cp hive-default.xml.template hive-site.xml  
[root@hadoop5 conf]# cp hive-log4j2.properties.template hive-log4j2.properties  
[root@hadoop5 conf]# cp hive-exec-log4j2.properties.template hive-exec-log4j2.properties

4.修改hive-env.sh文件

[root@hadoop5 conf]# vim hive-env.sh    #在最后添加
export JAVA_HOME=/usr/local/jdk
export HADOOP_HOME=/usr/local/hadoop
export HIVE_HOME=/usr/local/hive    
export HIVE_CONF_DIR=/usr/local/hive/conf

5.拷貝mysql的JDBC驅動包

[root@hadoop5 ~]# tar -zxf mysql-connector-java-5.1.44.tar.gz 
[root@hadoop5 ~]# cp mysql-connector-java-5.1.44/mysql-connector-java-5.1.44-bin.jar /usr/local/hive/lib/

6.在hdfs中創建一下目錄,并授權,用于存儲文件

hdfs dfs -mkdir -p /user/hive/warehouse
hdfs dfs -mkdir -p /user/hive/tmp
hdfs dfs -mkdir -p /user/hive/log
hdfs dfs -chmod -R 777 /user/hive/warehouse
hdfs dfs -chmod -R 777 /user/hive/tmp
hdfs dfs -chmod -R 777 /user/hive/log

7.在mysql中創建相關用戶和庫

mysql> create database metastore;
Query OK, 1 row affected (0.03 sec)
mysql> set global validate_password_policy=0;
Query OK, 0 rows affected (0.26 sec)
mysql> grant all on metastore.* to hive@'%' identified by 'hive123456';
Query OK, 0 rows affected, 1 warning (0.03 sec)
mysql> flush privileges;
Query OK, 0 rows affected (0.00 sec)

7.使用scp將hive拷貝到hadoop3上

[root@hadoop5 ~]# scp -r /usr/local/hive root@hadoop3:/usr/local/

三、修改配置文件

1.服務端hive-site.xml的配置

<configuration>
<property>
    <name>hive.exec.scratchdir</name>
    <value>/user/hive/tmp</value>
</property>
<property>
    <name>hive.metastore.warehouse.dir</name>
    <value>/user/hive/warehouse</value>
</property>
<property>
    <name>hive.querylog.location</name>
    <value>/user/hive/log</value>
</property>

<property>
    <name>javax.jdo.option.ConnectionURL</name>
    <value>jdbc:mysql://hadoop5:3306/metastore?createDatabaseIfNotExist=true&amp;characterEncoding=UTF-8&amp;useSSL=false</value>
</property>
<property>
    <name>javax.jdo.option.ConnectionDriverName</name>
    <value>com.mysql.jdbc.Driver</value>
</property>
<property>
    <name>javax.jdo.option.ConnectionUserName</name>
    <value>hive</value>
</property>
<property>
    <name>javax.jdo.option.ConnectionPassword</name>
    <value>hive123456</value>
</property>
</configuration>

2.客戶端hive-site.xml的配置

<configuration>
<property>
    <name>hive.metastore.uris</name>
    <value>thrift://hadoop5:9083</value>
</property>
<property>
    <name>hive.exec.scratchdir</name>
    <value>/user/hive/tmp</value>
</property>
<property>
    <name>hive.metastore.warehouse.dir</name>
    <value>/user/hive/warehouse</value>
</property>
<property>
    <name>hive.querylog.location</name>
    <value>/user/hive/log</value>
</property>
<property>
    <name>hive.metastore.local</name>
    <value>false</value>
</property>
</configuration>

四、啟動hive(兩種方式)

首先格式化數據庫

schematool --dbType mysql --initSchema

1.直接啟動

service:

[root@hadoop5 ~]# hive --service metastore

client:

[root@hadoop3 ~]# hive
hive> show databases;
OK
default
Time taken: 1.599 seconds, Fetched: 1 row(s)
hive> quit;

2.beeline方式

需要先在hadoop的core-site.xml中添加配置

<property>  
  <name>hadoop.proxyuser.root.groups</name>  
  <value>*</value>  
</property>  
<property>  
  <name>hadoop.proxyuser.root.hosts</name>  
  <value>*</value>  
</property>

service:

[root@hadoop5 ~]# nohup hiveserver2 &
[root@hadoop5 ~]# netstat -nptl | grep 10000
tcp        0      0 0.0.0.0:10000           0.0.0.0:*               LISTEN      3464/java

client:

[root@hadoop3 ~]# beeline 
Beeline version 1.2.1.spark2 by Apache Hive
beeline>
beeline> !connect jdbc:hive2://hadoop5:10000 hive hive123456
Connecting to jdbc:hive2://hadoop5:10000
17/09/21 09:47:31 INFO jdbc.Utils: Supplied authorities: hadoop5:10000
17/09/21 09:47:31 INFO jdbc.Utils: Resolved authority: hadoop5:10000
17/09/21 09:47:31 INFO jdbc.HiveConnection: Will try to open client transport with JDBC Uri: jdbc:hive2://hadoop5:10000
Connected to: Apache Hive (version 2.3.0)
Driver: Hive JDBC (version 1.2.1.spark2)
Transaction isolation: TRANSACTION_REPEATABLE_READ
0: jdbc:hive2://hadoop5:10000> show databases;
+----------------+--+
| database_name  |
+----------------+--+
| default        |
+----------------+--+
1 row selected (2.258 seconds)


向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

双江| 曲阳县| 淳化县| 重庆市| 阿拉善盟| 唐山市| 星座| 镇坪县| 阳信县| 乌拉特后旗| 徐水县| 德庆县| 南通市| 隆林| 建昌县| 梁山县| 玛沁县| 三河市| 潢川县| 合江县| 泾川县| 梁河县| 同心县| 北川| 洛南县| 广宁县| 江西省| 牡丹江市| 曲阳县| 剑河县| 桐庐县| 洪洞县| 海原县| 临颍县| 佳木斯市| 札达县| 潜江市| 三原县| 清水河县| 射阳县| 铜梁县|