亚洲激情专区-91九色丨porny丨老师-久久久久久久女国产乱让韩-国产精品午夜小视频观看

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

怎么保證快速且安全大批量插入數據到數據庫

發布時間:2021-09-04 10:54:08 來源:億速云 閱讀:168 作者:chen 欄目:大數據

本篇內容主要講解“怎么保證快速且安全大批量插入數據到數據庫”,感興趣的朋友不妨來看看。本文介紹的方法操作簡單快捷,實用性強。下面就讓小編來帶大家學習“怎么保證快速且安全大批量插入數據到數據庫”吧!

前言

最近有個需求解析一個訂單文件,并且說明文件可達到千萬條數據,每條數據大概在20個字段左右,每個字段使用逗號分隔,需要盡量在半小時內入庫。

思路

1.估算文件大小

因為告訴文件有千萬條,同時每條記錄大概在20個字段左右,所以可以大致估算一下整個訂單文件的大小,方法也很簡單使用FileWriter往文件中插入一千萬條數據,查看文件大小,經測試大概在1.5G左右;

2.如何批量插入

由上可知文件比較大,一次性讀取內存肯定不行,方法是每次從當前訂單文件中截取一部分數據,然后進行批量插入,如何批次插入可以使用insert(...)values(...),(...)的方式,經測試這種方式效率還是挺高的;

3.數據的完整性

截取數據的時候需要注意,需要保證數據的完整性,每條記錄最后都是一個換行符,需要根據這個標識保證每次截取都是整條數,不要出現半條數據這種情況;

4.數據庫是否支持批次數據

因為需要進行批次數據的插入,數據庫是否支持大量數據寫入,比如這邊使用的mysql,可以通過設置max_allowed_packet來保證批次提交的數據量;

5.中途出錯的情況

因為是大文件解析,如果中途出現錯誤,比如數據剛好插入到900w的時候,數據庫連接失敗,這種情況不可能重新來插一遍,所有需要記錄每次插入數據的位置,并且需要保證和批次插入的數據在同一個事務中,這樣恢復之后可以從記錄的位置開始繼續插入。

實現

1.準備數據表

這里需要準備兩張表分別是:訂單狀態位置信息表,訂單表;

CREATE TABLE `file_analysis` (
  `id` bigint(20) NOT NULL AUTO_INCREMENT,
  `file_type` varchar(255) NOT NULL COMMENT '文件類型 01:類型1,02:類型2',
  `file_name` varchar(255) NOT NULL COMMENT '文件名稱',
  `file_path` varchar(255) NOT NULL COMMENT '文件路徑',
  `status` varchar(255) NOT NULL COMMENT '文件狀態  0初始化;1成功;2失敗:3處理中',
  `position` bigint(20) NOT NULL COMMENT '上一次處理完成的位置',
  `crt_time` datetime NOT NULL COMMENT '創建時間',
  `upd_time` datetime NOT NULL COMMENT '更新時間',
  PRIMARY KEY (`id`)
) ENGINE=InnoDB AUTO_INCREMENT=2 DEFAULT CHARSET=utf8
CREATE TABLE `file_order` (
  `id` bigint(20) NOT NULL AUTO_INCREMENT,
  `file_id` bigint(20) DEFAULT NULL,
  `field1` varchar(255) DEFAULT NULL,
  `field2` varchar(255) DEFAULT NULL,
  `field3` varchar(255) DEFAULT NULL,
  `field4` varchar(255) DEFAULT NULL,
  `field5` varchar(255) DEFAULT NULL,
  `field6` varchar(255) DEFAULT NULL,
  `field7` varchar(255) DEFAULT NULL,
  `field8` varchar(255) DEFAULT NULL,
  `field9` varchar(255) DEFAULT NULL,
  `field10` varchar(255) DEFAULT NULL,
  `field11` varchar(255) DEFAULT NULL,
  `field12` varchar(255) DEFAULT NULL,
  `field13` varchar(255) DEFAULT NULL,
  `field14` varchar(255) DEFAULT NULL,
  `field15` varchar(255) DEFAULT NULL,
  `field16` varchar(255) DEFAULT NULL,
  `field17` varchar(255) DEFAULT NULL,
  `field18` varchar(255) DEFAULT NULL,
  `crt_time` datetime NOT NULL COMMENT '創建時間',
  `upd_time` datetime NOT NULL COMMENT '更新時間',
  PRIMARY KEY (`id`)
) ENGINE=InnoDB AUTO_INCREMENT=10000024 DEFAULT CHARSET=utf8
2.配置數據庫包大小
mysql> show VARIABLES like '%max_allowed_packet%';
+--------------------------+------------+
| Variable_name            | Value      |
+--------------------------+------------+
| max_allowed_packet       | 1048576    |
| slave_max_allowed_packet | 1073741824 |
+--------------------------+------------+
2 rows in set

mysql> set global max_allowed_packet = 1024*1024*10;
Query OK, 0 rows affected

通過設置max_allowed_packet,保證數據庫能夠接收批次插入的數據包大小;不然會出現如下錯誤:

Caused by: com.mysql.jdbc.PacketTooBigException: Packet for query is too large (4980577 > 1048576). You can change this value on the server by setting the max_allowed_packet' variable.
    at com.mysql.jdbc.MysqlIO.send(MysqlIO.java:3915)
    at com.mysql.jdbc.MysqlIO.sendCommand(MysqlIO.java:2598)
    at com.mysql.jdbc.MysqlIO.sqlQueryDirect(MysqlIO.java:2778)
    at com.mysql.jdbc.ConnectionImpl.execSQL(ConnectionImpl.java:2834)
3.準備測試數據
    public static void main(String[] args) throws IOException {
        FileWriter out = new FileWriter(new File("D://xxxxxxx//orders.txt"));
        for (int i = 0; i < 10000000; i++) {
            out.write(
                    "vaule1,vaule2,vaule3,vaule4,vaule5,vaule6,vaule7,vaule8,vaule9,vaule10,vaule11,vaule12,vaule13,vaule14,vaule15,vaule16,vaule17,vaule18");
            out.write(System.getProperty("line.separator"));
        }
        out.close();
    }

使用FileWriter遍歷往一個文件里插入1000w條數據即可,這個速度還是很快的,不要忘了在每條數據的后面添加換行符(\n\r)

4.截取數據的完整性

除了需要設置每次讀取文件的大小,同時還需要設置一個參數,用來每次獲取一小部分數據,從這小部分數據中獲取換行符(\n\r),如果獲取不到一直累加直接獲取為止,這個值設置大小大致同每條數據的大小差不多合適,部分實現如下:

ByteBuffer byteBuffer = ByteBuffer.allocate(buffSize); // 申請一個緩存區
long endPosition = batchFileSize + startPosition - buffSize;// 子文件結束位置

long startTime, endTime;
for (int i = 0; i < count; i++) {
    startTime = System.currentTimeMillis();
    if (i + 1 != count) {
        int read = inputChannel.read(byteBuffer, endPosition);// 讀取數據
        readW: while (read != -1) {
            byteBuffer.flip();// 切換讀模式
            byte[] array = byteBuffer.array();
            for (int j = 0; j < array.length; j++) {
                byte b = array[j];
                if (b == 10 || b == 13) { // 判斷\n\r
                    endPosition += j;
                    break readW;
                }
            }
            endPosition += buffSize;
            byteBuffer.clear(); // 重置緩存塊指針
            read = inputChannel.read(byteBuffer, endPosition);
        }
    } else {
        endPosition = fileSize; // 最后一個文件直接指向文件末尾
    }
    ...省略,更多可以查看Github完整代碼...
}

如上代碼所示開辟了一個緩沖區,根據每行數據大小來定大概在200字節左右,然后通過遍歷查找換行符(\n\r),找到以后將當前的位置加到之前的結束位置上,保證了數據的完整性;

5.批次插入數據

通過insert(...)values(...),(...)的方式批次插入數據,部分代碼如下:

// 保存訂單和解析位置保證在一個事務中
        SqlSession session = sqlSessionFactory.openSession();
        try {
            long startTime = System.currentTimeMillis();
            FielAnalysisMapper fielAnalysisMapper = session.getMapper(FielAnalysisMapper.class);
            FileOrderMapper fileOrderMapper = session.getMapper(FileOrderMapper.class);
            fileOrderMapper.batchInsert(orderList);

            // 更新上次解析到的位置,同時指定更新時間
            fileAnalysis.setPosition(endPosition + 1);
            fileAnalysis.setStatus("3");
            fileAnalysis.setUpdTime(new Date());
            fielAnalysisMapper.updateFileAnalysis(fileAnalysis);
            session.commit();
            long endTime = System.currentTimeMillis();
            System.out.println("===插入數據花費:" + (endTime - startTime) + "ms===");
        } catch (Exception e) {
            session.rollback();
        } finally {
            session.close();
        }
        ...省略,更多可以查看Github完整代碼...

如上代碼在一個事務中同時保存批次訂單數據和文件解析位置信息,batchInsert通過使用mybatis的<foreach>標簽來遍歷訂單列表,生成values數據;

總結

以上展示了部分代碼,完整的代碼可以查看Github地址中的batchInsert模塊,本地設置每次截取的文件大小為2M,經測試1000w條數據(大小1.5G左右)插入mysql數據庫中,大概花費時間在20分鐘左右,當然可以通過設置截取的文件大小,花費的時間也會相應的改變。

到此,相信大家對“怎么保證快速且安全大批量插入數據到數據庫”有了更深的了解,不妨來實際操作一番吧!這里是億速云網站,更多相關內容可以進入相關頻道進行查詢,關注我們,繼續學習!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

凤庆县| 麻江县| 凤阳县| 巴塘县| 海淀区| 友谊县| 马边| 张掖市| 合山市| 南丹县| 舒城县| 汤原县| 台南市| 广州市| 尚义县| 泸溪县| 阳原县| 保康县| 安康市| 武乡县| 中牟县| 云阳县| 突泉县| 巨野县| 新乡县| 于田县| 藁城市| 新巴尔虎左旗| 巩义市| 夏邑县| 鄱阳县| 蓬安县| 黎川县| 昌图县| 德惠市| 尖扎县| 龙山县| 辽源市| 大新县| 河东区| 重庆市|