您好,登錄后才能下訂單哦!
本篇內容介紹了“MyBatis批量插入數據的方法有哪些”的有關知識,在實際案例的操作過程中,不少人都會遇到這樣的困境,接下來就讓小編帶領大家學習一下如何處理這些情況吧!希望大家仔細閱讀,能夠學有所成!
前言
準備工作
1.循環單次插入
2.MP 批量插入
① 控制器實現
② 業務邏輯層實現
③ 數據持久層實現
MP 性能測試
MP 源碼分析
3.原生批量插入
① 業務邏輯層擴展
② 數據持久層擴展
③ 添加 UserMapper.xml
原生批量插入性能測試
缺點分析
解決方案
先來簡單說一下 3 種批量插入功能分別是:
循環單次插入;
MP 批量插入功能;
原生批量插入功能。
開始之前我們先來創建數據庫和測試數據,執行的 SQL 腳本如下:
-- ---------------------------- -- 創建數據庫 -- ---------------------------- SET NAMES utf8mb4; SET FOREIGN_KEY_CHECKS = 0; DROP DATABASE IF EXISTS `testdb`; CREATE DATABASE `testdb`; USE `testdb`; -- ---------------------------- -- 創建 user 表 -- ---------------------------- DROP TABLE IF EXISTS `user`; CREATE TABLE `user` ( `id` int(11) NOT NULL AUTO_INCREMENT, `name` varchar(255) CHARACTER SET utf8mb4 COLLATE utf8mb4_bin NULL DEFAULT NULL, `password` varchar(255) CHARACTER SET utf8mb4 COLLATE utf8mb4_bin NULL DEFAULT NULL, `createtime` datetime NULL DEFAULT CURRENT_TIMESTAMP, PRIMARY KEY (`id`) USING BTREE ) ENGINE = InnoDB AUTO_INCREMENT = 6 CHARACTER SET = utf8mb4 COLLATE = utf8mb4_bin ROW_FORMAT = Dynamic; -- ---------------------------- -- 添加測試數據 -- ---------------------------- INSERT INTO `user` VALUES (1, '趙云', '123456', '2021-09-10 18:11:16'); INSERT INTO `user` VALUES (2, '張飛', '123456', '2021-09-10 18:11:28'); INSERT INTO `user` VALUES (3, '關羽', '123456', '2021-09-10 18:11:34'); INSERT INTO `user` VALUES (4, '劉備', '123456', '2021-09-10 18:11:41'); INSERT INTO `user` VALUES (5, '曹操', '123456', '2021-09-10 18:12:02'); SET FOREIGN_KEY_CHECKS = 1;
接下來我們將使用 Spring Boot 項目,批量插入 10W 條數據來分別測試各個方法的執行時間。
循環單次插入的(測試)核心代碼如下:
import com.example.demo.model.User; import com.example.demo.service.impl.UserServiceImpl; import org.junit.jupiter.api.Test; import org.springframework.beans.factory.annotation.Autowired; import org.springframework.boot.test.context.SpringBootTest; @SpringBootTest class UserControllerTest { // 最大循環次數 private static final int MAXCOUNT = 100000; @Autowired private UserServiceImpl userService; /** * 循環單次插入 */ @Test void save() { long stime = System.currentTimeMillis(); // 統計開始時間 for (int i = 0; i < MAXCOUNT; i++) { User user = new User(); user.setName("test:" + i); user.setPassword("123456"); userService.save(user); } long etime = System.currentTimeMillis(); // 統計結束時間 System.out.println("執行時間:" + (etime - stime)); } }
運行以上程序,花費了 88574 毫秒
MP 批量插入功能核心實現類有三個:UserController(控制器)、UserServiceImpl(業務邏輯實現類)、UserMapper(數據庫映射類),它們的調用流程如下:
注意此方法實現需要先添加 MP 框架,打開 pom.xml 文件添加如下內容:
<dependency> <groupId>com.baomidou</groupId> <artifactId>mybatis-plus-boot-starter</artifactId> <version>mybatis-plus-latest-version</version> </dependency>
注意:mybatis-plus-latest-version 表示 MP 框架的最新版本號,可訪問 mvnrepository.com/artifact/co… 查詢最新版本號,但在使用的時候記得一定要將上面的 “mybatis-plus-latest-version”替換成換成具體的版本號,如 3.4.3 才能正常的引入框架。
更多 MP 框架的介紹請移步它的官網:baomidou.com/guide/
import com.example.demo.model.User; import com.example.demo.service.impl.UserServiceImpl; import org.springframework.beans.factory.annotation.Autowired; import org.springframework.web.bind.annotation.RequestMapping; import org.springframework.web.bind.annotation.RestController; import java.util.ArrayList; import java.util.List; @RestController @RequestMapping("/u") public class UserController { @Autowired private UserServiceImpl userService; /** * 批量插入(自定義) */ @RequestMapping("/mysavebatch") public boolean mySaveBatch(){ List<User> list = new ArrayList<>(); // 待添加(用戶)數據 for (int i = 0; i < 1000; i++) { User user = new User(); user.setName("test:"+i); user.setPassword("123456"); list.add(user); } return userService.saveBatchCustom(list); } }
import com.baomidou.mybatisplus.extension.service.impl.ServiceImpl; import com.example.demo.mapper.UserMapper; import com.example.demo.model.User; import com.example.demo.service.UserService; import org.springframework.beans.factory.annotation.Autowired; import org.springframework.stereotype.Service; import java.util.List; @Service public class UserServiceImpl extends ServiceImpl<UserMapper,User> implements UserService { @Autowired private UserMapper userMapper; public boolean saveBatchCustom(List<User> list){ return userMapper.saveBatchCustom(list); } }
import com.baomidou.mybatisplus.core.mapper.BaseMapper; import com.example.demo.model.User; import org.apache.ibatis.annotations.Mapper; import java.util.List; @Mapper public interface UserMapper extends BaseMapper<User>{ boolean saveBatchCustom(List<User> list); }
經過以上代碼實現,我們就可以使用 MP 來實現數據的批量插入功能了,但本篇除了具體的實現代碼之外,我們還要知道每種方法的執行效率,所以接下來我們來編寫 MP 的測試代碼。
import com.example.demo.model.User; import com.example.demo.service.impl.UserServiceImpl; import org.junit.jupiter.api.Test; import org.springframework.beans.factory.annotation.Autowired; import org.springframework.boot.test.context.SpringBootTest; import java.util.ArrayList; import java.util.List; @SpringBootTest class UserControllerTest { // 最大循環次數 private static final int MAXCOUNT = 100000; @Autowired private UserServiceImpl userService; /** * MP 批量插入 */ @Test void saveBatch() { long stime = System.currentTimeMillis(); // 統計開始時間 List<User> list = new ArrayList<>(); for (int i = 0; i < MAXCOUNT; i++) { User user = new User(); user.setName("test:" + i); user.setPassword("123456"); list.add(user); } // MP 批量插入 userService.saveBatch(list); long etime = System.currentTimeMillis(); // 統計結束時間 System.out.println("執行時間:" + (etime - stime)); } }
以上程序的執行總共花費了 6088 毫秒
從上述結果可知,使用 MP 的批量插入功能(插入數據 10W 條),它的性能比循環單次插入的性能提升了 14.5 倍。
從 MP 和循環單次插入的執行時間我們可以看出,使用 MP 并不是像有些朋友認為的那樣,還是循環單次執行的,為了更清楚的說明此問題,我們查看了 MP 的源碼。
MP 的核心實現代碼是 saveBatch 方法,此方法的源碼如下:
我們繼續跟進 saveBatch 的重載方法:
從上述源碼可以看出,MP 是將要執行的數據分成 N 份,每份 1000 條,每滿 1000 條就會執行一次批量插入,所以它的性能要比循環單次插入的性能高很多。
那為什么要分批執行,而不是一次執行?別著急,當我們看了第 3 種實現方法之后我們就明白了。
原生批量插入方法是依靠 MyBatis 中的 foreach 標簽,將數據拼接成一條原生的 insert 語句一次性執行的,核心實現代碼如下。
在 UserServiceImpl 添加 saveBatchByNative 方法,實現代碼如下:
import com.baomidou.mybatisplus.extension.service.impl.ServiceImpl; import com.example.demo.mapper.UserMapper; import com.example.demo.model.User; import com.example.demo.service.UserService; import org.springframework.beans.factory.annotation.Autowired; import org.springframework.stereotype.Service; import java.util.List; @Service public class UserServiceImpl extends ServiceImpl<UserMapper, User> implements UserService { @Autowired private UserMapper userMapper; public boolean saveBatchByNative(List<User> list) { return userMapper.saveBatchByNative(list); } }
在 UserMapper 添加 saveBatchByNative 方法,實現代碼如下:
import com.baomidou.mybatisplus.core.mapper.BaseMapper; import com.example.demo.model.User; import org.apache.ibatis.annotations.Mapper; import java.util.List; @Mapper public interface UserMapper extends BaseMapper<User> { boolean saveBatchByNative(List<User> list); }
創建 UserMapper.xml 文件,使用 foreach 標簽拼接 SQL,具體實現代碼如下:
<?xml version="1.0" encoding="UTF-8"?> <!DOCTYPE mapper PUBLIC "-//mybatis.org//DTD Mapper 3.0//EN" "http://mybatis.org/dtd/mybatis-3-mapper.dtd"> <mapper namespace="com.example.demo.mapper.UserMapper"> <insert id="saveBatchByNative"> INSERT INTO `USER`(`NAME`,`PASSWORD`) VALUES <foreach collection="list" separator="," item="item"> (#{item.name},#{item.password}) </foreach> </insert> </mapper>
經過以上步驟,我們原生的批量插入功能就實現的差不多了,接下來我們使用單元測試來查看一下此方法的執行效率。
import com.example.demo.model.User; import com.example.demo.service.impl.UserServiceImpl; import org.junit.jupiter.api.Test; import org.springframework.beans.factory.annotation.Autowired; import org.springframework.boot.test.context.SpringBootTest; import java.util.ArrayList; import java.util.List; @SpringBootTest class UserControllerTest { // 最大循環次數 private static final int MAXCOUNT = 100000; @Autowired private UserServiceImpl userService; /** * 原生自己拼接 SQL,批量插入 */ @Test void saveBatchByNative() { long stime = System.currentTimeMillis(); // 統計開始時間 List<User> list = new ArrayList<>(); for (int i = 0; i < MAXCOUNT; i++) { User user = new User(); user.setName("test:" + i); user.setPassword("123456"); list.add(user); } // 批量插入 userService.saveBatchByNative(list); long etime = System.currentTimeMillis(); // 統計結束時間 System.out.println("執行時間:" + (etime - stime)); } }
然而,當我們運行程序時卻發生了以下情況:
納尼?程序的執行竟然報錯了。
從上述報錯信息可以看出,當我們使用原生方法將 10W 條數據拼接成一個 SQL 執行時,由于拼接的 SQL 過大(4.56M)從而導致程序執行報錯,因為默認情況下 MySQL 可以執行的最大 SQL(大小)為 4M,所以程序就報錯了。
這就是原生批量插入方法的缺點,也是為什么 MP 需要分批執行的原因,就是為了防止程序在執行時,因為觸發了數據庫的最大執行 SQL 而導致程序執行報錯。
當然我們也可以通過設置 MySQL 的最大執行 SQL 來解決報錯的問題,設置命令如下:
-- 設置最大執行 SQL 為 10M set global max_allowed_packet=10*1024*1024;
“MyBatis批量插入數據的方法有哪些”的內容就介紹到這里了,感謝大家的閱讀。如果想了解更多行業相關的知識可以關注億速云網站,小編將為大家輸出更多高質量的實用文章!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。