亚洲激情专区-91九色丨porny丨老师-久久久久久久女国产乱让韩-国产精品午夜小视频观看

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

#IT明星不是夢# Mysql百萬數據量級數據快速導入Red

發布時間:2020-02-14 11:09:52 來源:網絡 閱讀:957 作者:獨行俠夢 欄目:大數據
前言

隨著系統的運行,數據量變得越來越大,單純的將數據存儲在mysql中,已然不能滿足查詢要求了,此時我們引入Redis作為查詢的緩存層,將業務中的熱數據保存到Redis,擴展傳統關系型數據庫的服務能力,用戶通過應用直接從Redis中快速獲取常用數據,或者在交互式應用中使用Redis保存活躍用戶的會話,都可以極大地降低后端關系型數據庫的負載,提升用戶體驗。

傳統命令的缺點

使用傳統的redis client命令在大數據量的導入場景下存在如下缺陷:

由于redis是單線程模型,雖然避免了多線程下線程切換所耗費的時間,單一順序的執行命令也很快,但是在大批量數據導入的場景下,發送命令所花費的時間和接收服務器響應結果耗費的時間就會被放大。

假如需要導入100萬條數據,那光是命令執行時間,就需要花費100萬*(t1 + t2)。

#IT明星不是夢# Mysql百萬數據量級數據快速導入Red


除了逐條命令發送,當然redis設計肯定也會考慮這個問題,所以出現了pipelining管道模式。

#IT明星不是夢# Mysql百萬數據量級數據快速導入Red

但是pipelining在命令行中是沒有的,使得我們又需要編寫新的處理代碼,來接收批量的響應。但是只有很少很少的客戶端代碼支持,比如php-redis的擴展就不支持異步。

pipelining管道模式,其實就是減少了TCP連接的交互時間,當一批命令執行完畢后,一次性發送結果。

其實現原理是采用FIFO(先進先出)的隊列來保證數據的順序性。

只有一小部分客戶端支持非阻塞I/O,并不是所有的客戶端都能夠以一種有效的方式解析應答,以最大化吞吐量。

由于這些原因,將龐大數據導入到Redis的首選方法是生成一個包含Redis協議數據格式,批量的發送過去。

數據導入Redis熱身
采用nc命令導入數據

nc是netcat的簡寫,nc的作用有:

(1)實現任意TCP/UDP端口的偵聽,增加-l參數后,nc可以作為server以TCP或UDP方式偵聽指定端口

(2)端口的掃描,nc可以作為client發起TCP或UDP連接

(3)機器之間傳輸文件

(4)機器之間網絡測速

#IT明星不是夢# Mysql百萬數據量級數據快速導入Red

采用pipe模式導入數據

然而,使用nc監聽并不是一個非常可靠的方式來執行大規模的數據導入,因為netcat并不真正知道何時傳輸了所有數據,也無法檢查錯誤。在2.6或更高版本的Redis中,Redis -cli腳本支持一種稱為pipe管道模式的新模式,這種模式是為了執行大規模插入而設計的。
使用管道模式的命令運行如下:

#IT明星不是夢# Mysql百萬數據量級數據快速導入Red

由上圖,可以看到pipe命令的返回結果,txt文件中有多少行命令,返回的replies數就是多少,
errors表示其中執行錯誤的命令條數。

redis協議學習

協議的格式為:

*<參數數量>??\r\n
$<參數?1?的字節數量>??\r\n
<參數?1?的數據>?\r\n
...
$<參數?N?的字節數量>?\r\n
<參數?N?的數據>?\r\n

比如:
插入一條hash類型的數據。

HSET??id??book1??book_description1

根據Redis協議,總共有4個部分,所以開頭為*4,其余內容解釋如下:

內容長度協議命令
HSET4$4
id2$2
book15$5
book_description117$17

注意一下:HSET命令本身也作為協議的其中一個參數來發送。

構造出來的協議數據結構:

*4\r\n$4\r\nHSET\r\n$2\r\nid\r\n$5\r\nbook1\r\n$17\r\nbook_description1\r\n

格式化一下:

*4\r\n
$4\r\n
HSET\r\n
$2\r\n
idvvvv\r\n
$5\r\n
book1\r\n
$17\r\n
book_description1\r\n
RESP協議 bulk

Redis客戶機使用一種稱為RESP (Redis序列化協議)的協議與Redis服務器通信。

redis-cli pipe模式需要和nc命令一樣快,并且解決了nc命令不知道何時命令結束的問題。

在發送數據的同時,它同樣會去讀取響應,嘗試去解析。

一旦輸入流中沒有讀取到更多的數據之后,它就會發送一個特殊的20比特的echo命令,標識最后一個命令已經發送完畢
如果在響應結果中匹配到這個相同數據后,說明本次批量發送是成功的。

使用這個技巧,我們不需要解析發送給服務器的協議來了解我們發送了多少命令,只需要解析應答即可。

在解析應答時,redis會對解析的應答進行一個計數,在最后能夠告訴用戶大量插入會話向服務器傳輸的命令的數量。也就是上面我們使用pipe模式實際操作的響應結果。

將輸入數據源換成mysql

上面的例子中,我們以一個txt文本為輸入數據源,使用了pipe模式導入數據。

基于上述協議的學習和理解,我們只需要將mysql中的數據按照既定的協議通過pipe模式導入Redis即可。

實際案例—從Mysql導入百萬級數據到Redis
首先造數據

由于環境限制,所以這里沒有用真實數據來實現導入,那么我們就先使用一個存儲過程來造一百萬條數據把。使用存儲過程如下:

DELIMITER?$$
USE?`cb_mon`$$

DROP?PROCEDURE?IF?EXISTS?`test_insert`$$
CREATE?DEFINER=`root`@`%`?PROCEDURE?`test_insert`()
BEGIN

????????DECLARE?i?INT?DEFAULT?1;
????????WHILE?i<=?1000000
????????????DO
????????????INSERT?INTO?t_book(id,number,NAME,descrition)
????????????VALUES?(i,?CONCAT("00000",i)?,?CONCAT('book',i)
????????????,?CONCAT('book_description',i));????
????????????SET?i=i+1;
????????END?WHILE?;
????????COMMIT;
????END$$

DELIMITER?;

調用存儲過程:

?CALL?test_insert();

查看表數據:

按協議構造查詢語句

按照上述redis協議,我們使用如下sql來構造協議數據

SELECT
??CONCAT(
????"*4\r\n",
????"$",
????LENGTH(redis_cmd),
????"\r\n",
????redis_cmd,
????"\r\n",
????"$",
????LENGTH(redis_key),
????"\r\n",
????redis_key,
????"\r\n",
????"$",
????LENGTH(hkey),
????"\r\n",
????hkey,
????"\r\n",
????"$",
????LENGTH(hval),
????"\r\n",
????hval,
????"\r"
??)
FROM
??(SELECT
????"HSET"?AS?redis_cmd,
????id?AS?redis_key,
????NAME?AS?hkey,
????descrition?AS?hval
??FROM
????cb_mon.t_book
??)?AS?t?limit?1000000

并將內容保存至redis.sql 文件中。

編寫腳本使用pipe模式導入redis

編寫shell腳本。由于我在主機上是通過docker安裝的redis和mysql,以下腳本供參考:

#IT明星不是夢# Mysql百萬數據量級數據快速導入Red

#!/bin/bash

starttime=`date?+'%Y-%m-%d?%H:%M:%S'`

docker?exec?-i?899fe01d4dbc?mysql?--default-character-set=utf8???
--skip-column-names?--raw?<?./redis.sql
|?docker?exec?-i?4c90ef506acd?redis-cli?--pipe

endtime=`date?+'%Y-%m-%d?%H:%M:%S'`
start_seconds=$(date?--date="$starttime"?+%s);
end_seconds=$(date?--date="$endtime"?+%s);

echo?"腳本執行耗時:?"$((end_seconds-start_seconds))"s"

執行截圖:

#IT明星不是夢# Mysql百萬數據量級數據快速導入Red

可以看到百萬級的數據導入redis,只花費了7秒,效率非常高。

注意事項

如果mysql表特別大,可以考慮分批導入,或者將表拆分,否則在導入過程中可能會發生

lost?connection?to?mysql?server?during?query

由于max_allowed_packed和超時時間限制,查詢數據的過程中,可能會造成連接斷開,所以在數據表的數據量特別大的時候,需要分頁或者將表拆分導入。

總結

本篇文章主要探討了,Mysql百萬級數據量級下,如何高效的遷移到Redis中去,逐步實現目標的過程中,總結了如下幾點

  1. redis單線程執行命令,避免了線程切換所消耗的時間,但是在超大數據量級下,其發送、響應接收的時延不可忽視。

  2. 網絡nc命令的應用場景,及在數據導入時存在的缺點。

  3. redis RESP協議的理解和應用。

  4. 百萬量級Mysql數據的Redis快速導入案例。


為了方便大家學習討論,我創建了一個java疑難攻堅互助大家庭,和其他傳統的學習交流不同。本群主要致力于解決項目中的疑難問題,在遇到項目難以解決的。

問題時,都可以在這個大家庭里尋求幫助。


公眾號回復【問題的答案】進入:java中Integer包裝類的基本數據類型是?

如果你也經歷過遇到項目難題,無從下手,

他人有可能可以給你提供一些思路和看法,一百個人就有一百種思路,

同樣,如果你也樂于幫助別人,那解決別人遇到的問題,也同樣對你是一種鍛煉。

#IT明星不是夢# Mysql百萬數據量級數據快速導入Red

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

广元市| 资溪县| 邵阳市| 个旧市| 仁化县| 龙南县| 比如县| 青冈县| 哈密市| 蒙城县| 凤翔县| 任丘市| 阳信县| 陕西省| 古交市| 花垣县| 开远市| 关岭| 垣曲县| 建宁县| 宁明县| 申扎县| 麻江县| 昌平区| 乌海市| 西峡县| 勐海县| 犍为县| 太原市| 高碑店市| 巨野县| 仙居县| 沙湾县| 台中市| 大方县| 镇远县| 汝州市| 洛隆县| 苏尼特右旗| 文山县| 土默特左旗|