亚洲激情专区-91九色丨porny丨老师-久久久久久久女国产乱让韩-国产精品午夜小视频观看

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Hive有多少種存儲格式

發布時間:2021-12-10 09:51:35 來源:億速云 閱讀:131 作者:小新 欄目:云計算

這篇文章給大家分享的是有關Hive有多少種存儲格式的內容。小編覺得挺實用的,因此分享給大家做個參考,一起跟隨小編過來看看吧。

hive文件存儲格式
1.textfile
textfile為默認格式
存儲方式:行存儲
磁盤開銷大 數據解析開銷大
壓縮的text文件 hive無法進行合并和拆分

2.sequencefile
二進制文件,以<key,value>的形式序列化到文件中
存儲方式:行存儲
可分割 壓縮
一般選擇block壓縮
優勢是文件和hadoop api中的mapfile是相互兼容的。


3.rcfile
存儲方式:數據按行分塊 每塊按照列存儲
壓縮快 快速列存取
讀記錄盡量涉及到的block最少
讀取需要的列只需要讀取每個row group 的頭部定義。
讀取全量數據的操作 性能可能比sequencefile沒有明顯的優勢

4.orc

存儲方式:數據按行分塊 每塊按照列存儲

壓縮快 快速列存取

效率比rcfile高,是rcfile的改良版本

5.自定義格式
用戶可以通過實現inputformat和 outputformat來自定義輸入輸出格式。


總結:
textfile 存儲空間消耗比較大,并且壓縮的text 無法分割和合并 查詢的效率最低,可以直接存儲,加載數據的速度最高
sequencefile 存儲空間消耗最大,壓縮的文件可以分割和合并 查詢效率高,需要通過text文件轉化來加載
rcfile 存儲空間最小,查詢的效率最高 ,需要通過text文件轉化來加載,加載的速度最低

個人建議:text,seqfile能不用就盡量不要用  最好是選擇orc

Creating RCFile, SequenceFile, or Text Files

If you do not have an existing file to use, begin by creating one.

To create an RCFile, SequenceFile, or Text File table:

In the impala-shell interpreter, issue a command similar to:

create table rcfile_table (column_specs) stored as rcfile;
create table sequencefile_table (column_specs) stored as sequencefile;
create table textfile_table (column_specs) stored as textfile;
-- If the STORED AS clause is omitted, the default is a comma-delimited TEXTFILE.
create table default_table (column_specs);

Because Impala can query some kinds of tables that it cannot currently write to, after creating tables of certain file formats, you might use the Hive shell to load the data. See Understanding File Formats for details.

Enabling Compression for RCFile and SequenceFile Tables

You may want to enable compression on existing tables. Enabling compression provides performance gains in most cases and is supported for RCFile and SequenceFile tables. For example, to enable Snappy compression, you would specify the following additional settings when loading data through the Hive shell:

hive> SET hive.exec.compress.output=true;
hive> SET mapred.max.split.size=256000000;
hive> SET mapred.output.compression.type=BLOCK;
hive> SET mapred.output.compression.codec=org.apache.hadoop.io.compress.SnappyCodec;
hive> insert overwrite table NEW_TABLE select * from OLD_TABLE;

If you are converting partitioned tables, you must complete additional steps. In such a case, specify additional settings similar to the following:

hive> create table NEW_TABLE (YOUR COLS) partitioned by (PARTITION COLS) stored as NEW_FORMAT;
hive> SET hive.exec.dynamic.partition.mode=nonstrict;
hive> SET hive.exec.dynamic.partition=true;
hive> insert overwrite table NEW_TABLE partition(COMMA SEPARATED PARTITION COLS) select * from OLD_TABLE;

Remember that Hive does not require that you specify a source format for it. Consider the case of converting a table with two partition columns called "year" and "month" to a Snappy compressed SequenceFile. Combining the components outlined previously to complete this table conversion, you would specify settings similar to the following:

hive> create table TBL_SEQ (int_col int, string_col string) stored as SEQUENCEFILE;
hive> SET hive.exec.compress.output=true;
hive> SET mapred.max.split.size=256000000;
hive> SET mapred.output.compression.type=BLOCK;
hive> SET mapred.output.compression.codec=org.apache.hadoop.io.compress.SnappyCodec;
hive> SET hive.exec.dynamic.partition.mode=nonstrict;
hive> SET hive.exec.dynamic.partition=true;
hive> insert overwrite table TBL_SEQ select * from TBL;

To complete a similar process for a table that includes partitions, you would specify settings similar to the following:

hive> create table TBL_SEQ (int_col int, string_col string) partitioned by (year int) stored as SEQUENCEFILE;
hive> SET hive.exec.compress.output=true;
hive> SET mapred.max.split.size=256000000;
hive> SET mapred.output.compression.type=BLOCK;
hive> SET mapred.output.compression.codec=org.apache.hadoop.io.compress.SnappyCodec;
hive> SET hive.exec.dynamic.partition.mode=nonstrict;
hive> SET hive.exec.dynamic.partition=true;
hive> insert overwrite table TBL_SEQ partition(year) select * from TBL;

  Note:

The compression type is specified in the following phrase:

SET mapred.output.compression.codec=org.apache.hadoop.io.compress.SnappyCodec;

You could elect to specify alternative codecs such as GzipCodec here.

Hive的三種文件格式:TEXTFILE、SEQUENCEFILE、RCFILE中,TEXTFILE和SEQUENCEFILE的存儲格式都是基于行存儲的,RCFILE是基于行列混合的思想,先按行把數據劃分成N個row group,在row group中對每個列分別進行存儲。另:Hive能支持自定義格式,詳情見:Hive文件存儲格式

基于HDFS的行存儲具備快速數據加載和動態負載的高適應能力,因為行存儲保證了相同記錄的所有域都在同一個集群節點。但是它不太滿足快速的查詢響應時間的要求,因為當查詢僅僅針對所有列中的 少數幾列時,它就不能跳過不需要的列,直接定位到所需列;同時在存儲空間利用上,它也存在一些瓶頸,由于數據表中包含不同類型,不同數據值的列,行存儲不 易獲得一個較高的壓縮比。RCFILE是基于SEQUENCEFILE實現的列存儲格式。除了滿足快速數據加載和動態負載高適應的需求外,也解決了SEQUENCEFILE的一些瓶頸。

下面對這幾種幾個作一個簡單的介紹:

TextFile:

Hive默認格式,數據不做壓縮,磁盤開銷大,數據解析開銷大。
可結合Gzip、Bzip2、Snappy等使用(系統自動檢查,執行查詢時自動解壓),但使用這種方式,hive不會對數據進行切分,從而無法對數據進行并行操作。

SequenceFile:

SequenceFile是Hadoop API 提供的一種二進制文件,它將數據以<key,value>的形式序列化到文件中。這種二進制文件內部使用Hadoop 的標準的Writable 接口實現序列化和反序列化。它與Hadoop API中的MapFile 是互相兼容的。Hive 中的SequenceFile 繼承自Hadoop API 的SequenceFile,不過它的key為空,使用value 存放實際的值, 這樣是為了避免MR 在運行map 階段的排序過程。

SequenceFile的文件結構圖:
Hive有多少種存儲格式
 

Header通用頭文件格式:

SEQ3BYTE
Nun1byte數字
keyClassName 
ValueClassName 
compression(boolean)指明了在文件中是否啟用壓縮
blockCompression(boolean,指明是否是block壓縮)
compressioncodec
Metadata文件元數據
Sync頭文件結束標志

Block-Compressed SequenceFile格式


Hive有多少種存儲格式
 基于Hadoop系統行存儲結構的優點在于快速數據加載和動態負載的高適應能力,這是因為行存儲保證了相同記錄的所有域都在同一個集群節點,即同一個 HDFS塊。不過,行存儲的缺點也是顯而易見的,例如它不能支持快速查詢處理,因為當查詢僅僅針對多列表中的少數幾列時,它不能跳過不必要的列讀取;此 外,由于混合著不同數據值的列,行存儲不易獲得一個極高的壓縮比,即空間利用率不易大幅提高。

列存儲

HDFS塊內列存儲的例子
Hive有多少種存儲格式
 在HDFS上按照列組存儲表格的例子。在這個例子中,列A和列B存儲在同一列組,而列C和列D分別存儲在單獨的列組。查詢時列存儲能夠避免讀不必要的列, 并且壓縮一個列中的相似數據能夠達到較高的壓縮比。然而,由于元組重構的較高開銷,它并不能提供基于Hadoop系統的快速查詢處理。列存儲不能保證同一 記錄的所有域都存儲在同一集群節點,行存儲的例子中,記錄的4個域存儲在位于不同節點的3個HDFS塊中。因此,記錄的重構將導致通過集群節點網絡的大 量數據傳輸。盡管預先分組后,多個列在一起能夠減少開銷,但是對于高度動態的負載模式,它并不具備很好的適應性。

RCFile結合行存儲查詢的快速和列存儲節省空間的特點:首先,RCFile保證同一行的數據位于同一節點,因此元組重構的開銷很低;其次,像列存儲一樣,RCFile能夠利用列維度的數據壓縮,并且能跳過不必要的列讀取。

HDFS塊內RCFile方式存儲的例子:


Hive有多少種存儲格式
 
 數據測試

源表數據記錄數:67236221

第一步:創建三種文件類型的表,建表語法參考Hive文件存儲格式

Sql代碼 

  1. --TextFile  

  2. set hive.exec.compress.output=true;  

  3. set mapred.output.compress=true;  

  4. set mapred.output.compression.codec=org.apache.hadoop.io.compress.GzipCodec;  

  5. set io.compression.codecs=org.apache.hadoop.io.compress.GzipCodec;  

  6. INSERT OVERWRITE table hzr_test_text_table PARTITION(product='xxx',dt='2013-04-22')  

  7. SELECT xxx,xxx.... FROM xxxtable WHERE product='xxx' AND dt='2013-04-22';  

  8.   

  9. --SquenceFile  

  10. set hive.exec.compress.output=true;  

  11. set mapred.output.compress=true;  

  12. set mapred.output.compression.codec=org.apache.hadoop.io.compress.GzipCodec;  

  13. set io.compression.codecs=org.apache.hadoop.io.compress.GzipCodec;  

  14. set io.seqfile.compression.type=BLOCK;  

  15. INSERT OVERWRITE table hzr_test_sequence_table PARTITION(product='xxx',dt='2013-04-22')  

  16. SELECT xxx,xxx.... FROM xxxtable WHERE product='xxx' AND dt='2013-04-22';  

  17.   

  18. --RCFile  

  19. set hive.exec.compress.output=true;  

  20. set mapred.output.compress=true;  

  21. set mapred.output.compression.codec=org.apache.hadoop.io.compress.GzipCodec;  

  22. set io.compression.codecs=org.apache.hadoop.io.compress.GzipCodec;  

  23. INSERT OVERWRITE table hzr_test_rcfile_table PARTITION(product='xxx',dt='2013-04-22')  

  24. SELECT xxx,xxx.... FROM xxxtable WHERE product='xxx' AND dt='2013-04-22';  

第二步:測試insert overwrite table tablename select.... 耗時,存儲空間

類型insert耗時(S)存儲空間(G)

Sequence

97.291

7.13G

RCFile

120.901

5.73G

TextFile

290.517 

6.80G

insert耗時、count(1)耗時比較:
Hive有多少種存儲格式


Hive有多少種存儲格式

第三步:查詢響應時間

    測試一

Sql代碼 

  1. 方案一,測試整行記錄的查詢效率:  

  2. select * from hzr_test_sequence_table where game='XXX' ;    

  3. select * from hzr_test_rcfile_table where game='XXX' ;   

  4. select * from hzr_test_text_table where game='XXX' ;   

  5.   

  6. 方案二,測試特定列的查詢效率:  

  7. select game,game_server from hzr_test_sequence_table where game ='XXX';  

  8. select game,game_server from hzr_test_rcfile_table where game ='XXX';  

  9. select game,game_server from hzr_test_text_table where game ='XXX';  

文件格式

查詢整行記錄耗時(S)

查詢特定列記錄耗時(S)

sequence

42.241

39.918

rcfile

37.395

36.248

text

43.164

41.632

方案耗時對比:


Hive有多少種存儲格式
 

   測試二:

本測試目的是驗證RCFILE的數據讀取方式和Lazy解壓方式是否有性能優勢。數據讀取方式只讀取元數據和相關的列,節省IO;Lazy解壓方式只解壓相關的列數據,對不滿足where條件的查詢數據不進行解壓,IO和效率都有優勢。

方案一:

記錄數:698020

Sql代碼 

  1. insert overwrite local directory 'XXX/XXXX' select game,game_server from hzr_test_xxx_table where game ='XXX';  

方案二:

記錄數:67236221

Sql代碼 

  1. insert overwrite local directory 'xxx/xxxx' select game,game_server from hzr_test_xxx_table;  

方案三:

記錄數:

Sql代碼 

  1. insert overwrite local directory 'xxx/xxx'  

  2. select game from hzr_xxx_rcfile_table;  

文件類型方案一方案二方案三
TextFile54.89569.428 167.667
SequenceFile137.09677.03  123.667
RCFile44.2857.037 89.9

 
Hive有多少種存儲格式
 上圖表現反應在大小數據集上,RCFILE的查詢效率高于SEQUENCEFILE,在特定字段數據讀取時,RCFILE的查詢效率依然優于SEQUENCEFILE。

感謝各位的閱讀!關于“Hive有多少種存儲格式”這篇文章就分享到這里了,希望以上內容可以對大家有一定的幫助,讓大家可以學到更多知識,如果覺得文章不錯,可以把它分享出去讓更多的人看到吧!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

阜新市| 贺兰县| 家居| 天全县| 珲春市| 潮州市| 珠海市| 禹州市| 江山市| 滦南县| 惠来县| 安平县| 南部县| 松江区| 苍梧县| 博客| 池州市| 夏津县| 小金县| 凤山市| 望都县| 晋州市| 门头沟区| 高碑店市| 姚安县| 英山县| 洮南市| 宁海县| 南投市| 兴文县| 沙洋县| 游戏| 宜良县| 禹城市| 连南| 梧州市| 迁西县| 五莲县| 吉隆县| 勃利县| 黄石市|