亚洲激情专区-91九色丨porny丨老师-久久久久久久女国产乱让韩-国产精品午夜小视频观看

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

hive的語法命令介紹

發布時間:2020-07-28 06:57:37 來源:網絡 閱讀:1646 作者:原生zzy 欄目:大數據

1.hive的基本語法:

create databases mydb #創建數據庫
show databases            #查看所有的庫
use mydb                      #切換數據庫
create table t_user(id int ,name string,age int)  #創建表
create table t_user(id int ,name string,age int) row format delimited fields terminated by '分隔符'  #指定分隔符的建表語句
insert into table t_user values(值1,值1,值1)     #插入數據
select * from t_table       #查詢語句
load data inpath 'HDFS path' into table t_name  #在hdfs中導入數據
load data local inpath 'linux path' into table t_name #導入Linux數據到hive

2.hive的DDL操作:

(1)對hive庫的操作:

建庫

create database if not exists myhive   #如果不存在則創建該數據庫
create database if not exists myhive2 localtion 'hdfs path'  #指定該庫的位置

查看庫

show databases;                            #查看hive中所有的數據庫
desc databases dbname ;              #顯示數據庫的詳細信息
select current_database();             #查看正在使用的數據庫
show create database db_name ;  #查看建庫語句

刪除庫

drop databases db_name restrict;
drop database if exists dbname;
#注意:默認情況下,hive不允許刪除包含表的庫,有兩種辦法:
1. 手動刪除所有的表,然后在刪除庫
2. 使用cascade 關鍵字:drop database myhive cascade ;

(2)對hive表的操作:

建表
語法分析:

CREATE [EXTERNAL] TABLE [IF NOT EXISTS] table_name 
[(col_name data_type [COMMENT col_comment], ...)] 
[COMMENT table_comment] 
[PARTITIONED BY (col_name data_type [COMMENT col_comment], ...)]
[CLUSTERED BY (col_name, col_name, ...) [SORTED BY (col_name [ASC|DESC], ...)] INTO num_buckets BUCKETS] 
[ROW FORMAT row_format]
[STORED AS file_format]
[LOCATION hdfs_path]
[EXTERNAL] TABLE                # 表示創建的是內部表還是外部表
[IF NOT EXISTS] table_name  # 防止報錯
[(col_name data_type [COMMENT col_comment], ...)]  #表的字段
[COMMENT table_comment]   #表的描述信息
[PARTITIONED BY (col_name data_type [COMMENT col_comment], ...)]  #指定分區表
[CLUSTERED BY (col_name, col_name, ...) [SORTED BY (col_name [ASC|DESC], ...)] INTO num_buckets BUCKETS]   #指定分桶,排序規則,以及分桶個數
[ROW FORMAT row_format]   #指定分隔符
fields terminated by ‘’  #指定列分割符
lines terminated by ‘’  #指定行分隔符
[STORED AS file_format]   #指定數據存儲格式
[LOCATION hdfs_path]      #指定數據存儲目錄 (在創建外部表時使用)

建表舉例:

#內部表
create table if not exists student(id int ,name string) row format delimited fields terminated by ','      

#外部表
create external table if not exists student (id int ,name string) row format delimited fields terminated by ',' location '/hive/data/';
#分區表
create table  if not exists student (id int ,name string) partitioned by (age int conmment 'partitioned comment') row format delimited fields terminated by ',' ;   #分區字段的字段名稱,不能是表中的任意一個字段
#創建分桶表
create table if not exists  student (id int ,name string,age int ) clustered by (age) sort by (age desc) into 10 buckets row format delimited fields terminated by ',' ;   #分桶字段一定要是表中的屬性字段 
#like 方式
create table student like t_student ;   #復制一個表結構,分區表和分桶表也同樣可以復制(分區表只能復制在創建表的時候的信息,之后添加的信息不能復制)
#CTAS
create table student as select * from t_student #創建表并復制

修改表屬性

alter table old_name rename to new_name ;   #修改表名
alter table t_name set tb_properties (property_name=roperty_val)  #修改表的屬性
alter table t_name set serdeproperties('field.delim'='-');   #修改列的分隔符
alter table t_name add cloumns(f_name type) #增加一個字段
alter table t_name drop   #hive本身不支持
alter table t_name replace columns(id int ,name string )  #替換所有的列
alter table t_name change old_field_name new_field_name type [first|after field] #修改字段的名稱、類型以及位置
#接下來是對分區表操作:
alter table t_name add partition(分區字段=‘value’)  #添加一個分區
alter table t_name add partition(分區字段=‘value’) partition (分區字段=‘value’)  #添加多個分區
alter table t_name drop partition(分區字段='value')  #刪除分區
alter table t_name partition(分區字段=‘value’) set location 'hdfs path' #修改分區路徑
alter table t_name partition(分區字段=‘value’) enable no_drop ; #防止分區被刪除
alter table t_name partition(分區字段=‘value’) enable offline #防止分區被查詢

刪除表

drop tab;e if exists t_name ;   #刪除表
注意:
1. 內部表刪除:元數據和數據都刪
2. 內部表刪除:元數據和數據都刪
3. 分區表(內部表):所有的分區都會被刪除,元數據和數據都刪
4. 分桶表的刪除和普通表的刪除沒有任何區別
truncate table t_name ;  #清空表的內容

對表的常見操作

show tables ;  #查看庫下的所有表
show partitions t_name;  # 查看表的分區
show partitions 表名 partition(分區字段=‘value’)  #查看某個分區
desc t_name ;   #查看表的詳細信息
desc extended 表名  #查看表的詳細信息   
desc formatted 表名  #查看表的詳細信息

3.hive的DML操作:

(1)數據的裝載:

load data local inpath 'linux path' into table t_name ;   #本地導入
local data inpath 'hdfs path' into table t_name    #從hdfs中導入
#注意:如果是內部表的話,在hdfs導入,那么原本的數據會被移動到相應的表的目錄下
load data local inpath 'linux path ' overwrite into table 表名;  #覆蓋導入

(2)數據的插入:

注意

insert into //表示追加操作
insert overwrite   //表示覆蓋插入操作
insert into table t_name(fields1,fields2,fields3) values(value1,value2,value3)  #插入一條數據
insert into table t_name select * from tt_name;  #利用查詢,將結果導入表中
#分區表的多重插入
insert into talbe student_ptn partition(department=’SC’) select id ,name,age ,sex from student where dept=’ SC’; 
insert into talbe student_ptn partition(department=’AC’) select id ,name,age ,sex from student where dept=’ AC’;
insert into talbe student_ptn partition(department=’ES’) select id ,name,age ,sex from student where dept=’ ES’;
上面的方法是使用單個sql去查詢表,但是這里每執行一個sql就需要對student表中的所有數據進行掃描,效率太低!
轉換:
from student 
insert into table student_ptn partition(department=’SC’) select id ,name,age ,sex where dept=’ SC’; 
insert into talbe student_ptn partition(department=’AC’) select id ,name,age ,sex  where dept=’ AC’;
insert into talbe student_ptn partition(department=’ES’) select id ,name,age ,sex where dept=’ ES’;
這種方式進行數據的處理,只需要掃描表一次,整個MR程序就是一個輸入多個輸出,如果指定的分區不存在,在執行這條語句時會自動創建。
# 分桶表的數據插入,這里分桶表只能使用insert進行數據插入
insert into table stu_bck select * from 表名  #和普通的插入一樣
**分桶的原則:分桶字段的hashcode值%分桶個數=  相同的值分在一組

動態分區插入和靜態分區插入
靜態分區插入:要進行數據插入的數據的定義是手動指定的(分區在插入之前指定)
動態分區插入:用來解決靜態分區插入的缺點。按照某個分區字段的值進行判斷,每遇到一個不同的值,當前的程序自行進行判斷來創建對應的分區
舉例:

#靜態分區插入:
load data local inpath “路徑” into table 表名 partition(dpt=’’)
insert into talbe student_ptn partition(department=’SC’) select id ,name,age ,sex where dept=’ SC’;
#動態分區插入:
insert into table t_name partition(字段名) select * from tt_name #這里查詢的表的最后一個字段需要是分區字段。
#多分區動態插入:
insert into table stu_ptn01 partition(sex,department) select id,name,age,sex,department from student_manager;  #只要查詢字段的最后幾個字段是分區字段即可,順序不能顛倒

注意:如果想使用動態分區插入需要在hive中開啟幾個參數:

set hive.exec.dynamic.partiton=true;  #打開動態分區開關
set hive.exec.dynamic.partition.mode=nonstrict ;  #關閉動態分區插入的不合法約束。

靜態分區插入和動態分區插入的區別
 - 靜態分區插入數據后,需要指定分區的名字,而動態分區不需要
 - 靜態分區中可能會存在某一個分區沒有數據,分區的目錄是一個空目錄,動態分區的時候根據實際的數據生成分區,每一個分區至少有一條數據
 - 3) 動態分區的時候,每一個分區都會對應配置文件中設置的reducetask的個數,
set reducetask=3

(3)數據的導出:

#單重導出
insert overwrite local directory 'linux path' select * from t_name;
#多重導出
from t_name insert overwrite local directory 'linux path' select * where ...
insert overwrite local directory 'linux path' select * where...

4.hive的DQL操作:

查詢語句的書寫順序:select fields ... from [join] where group by having order by limit
查詢語句的執行順序:from ----join ----group by ---having ---select ---ordey by -----limit

(1)hive中的join

特點
  - Hive中連接,只支持等值連接不支持不等值連接
  - Hive中and連接,不支持or
  - Hive支持多表關聯,但是hive中進行關聯的時候盡量避免笛卡爾積
  - Hive支持in 和 exists 但是效率特別低
舉例:

#內連接
select a.id aid,a.name name,b.id bid,b.score score from test_a a inner join test_b b on a.id=b.id;  (交集)
#左外鏈接:以join左側的表為基礎表  左側的表的所有數據都會顯示  右側可以關聯上的就會補全  關聯不上 null補充
select a.id aid,a.name name,b.id bid,b.score score from test_a a left join test_b b on a.id=b.id;
#右外鏈接:以join右側的表為基礎
select a.id aid,a.name name,b.id bid,b.score score from test_a a right join test_b b on a.id=b.id;
#全外鏈接:取兩個表的并集
select a.id aid,a.name name,b.id bid,b.score score from test_a a full join test_b b on a.id=b.id;
#半連接,相當于內連接  取左半表的數據,左表中在右表中出現關聯上的數據
select * from test_a a left semi join test_b b on a.id=b.id;

關于 left semi join 的特點
left semi join 是對hive中的exists/in的一個更高級額的操作。
  - left semi join 的限制是, JOIN 子句中右邊的表只能在 ON 子句中設置過濾條件,在 WHERE 子句、SELECT 子句或其他地方過濾都不行。
  - left semi join 是只傳遞表的 join key 給 map 階段,因此left semi join 中最后 select 的結果只許出現左表。
  - 因為 left semi join 是 in(keySet) 的關系,遇到右表重復記錄,左表會跳過,而 join 則會一直遍歷。這就導致右表有重復值得情況下 left semi join 只產生一條,join 會產生多條,也會導致 left semi join 的性能更高。
hive的語法命令介紹

(2)hive中的排序

order by
特點:局排序
例:select * from 表名 order by 字段 desc; (降序排序)

sort by
特點:sort by 是一個局部排序,在每一個reduce中進行排序,當reduceTask個數為1個時,這時與全局排序相同
原理:sort by 在進行分每一個reduceTask中的數據時,時隨機選擇的字段進行分配
例:select * from 表名sort by 字段;

distribute by
特點:按照指定字段分桶,在每個桶中進行排序。
例1:select * from 表名 distribute by 字段 (字段.hash%分桶個數)
例2:select * from 表名 distribute by 分桶字段 sort by 排序 字段 #按照指定字段分桶,在每一個桶中進行排序

cluster by
特點:既分桶又排序
例:select * from 表名 cluster by 分桶排序字段
注意:當分桶字段和排序字段相同時:distribute by+ sort by= cluster by,否則distribute by+ sort by功能更強大一些!

(3)union和union all區別

union和union all:都是將查詢結果進行拼接,(連接的兩個表的結構必須相同)

select * from xxx  union selecet * from xxx
select * from xxx  union all selecet * from xxx

union:表示去重連接
union all :表示不去重連接

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

大同市| 景德镇市| 青铜峡市| 海晏县| 德钦县| 河津市| 志丹县| 靖宇县| 西藏| 龙泉市| 紫云| 胶州市| 浦县| 巴中市| 沙河市| 日照市| 洛宁县| 拜城县| 闵行区| 连南| 张掖市| 卓尼县| 曲麻莱县| 镇雄县| 大足县| 崇仁县| 清徐县| 子洲县| 修武县| 阿拉善左旗| 双桥区| 靖江市| 金昌市| 郁南县| 阜平县| 公安县| 长白| 宣化县| 武宁县| 新竹市| 西丰县|