spring data jpa開啟批量插入、批量更新


spring data jpa開啟批量插入、批量更新

原文鏈接:https://www.cnblogs.com/blog5277/p/10661096.html

原文作者:博客園--曲高終和寡

*******************如果你看到這一行,說明爬蟲在本人還沒有發布完成的時候就抓走了我的文章,導致內容不完整,請去上述的原文鏈接查看原文****************

 

 

最近准備上spring全家桶寫一下個人項目,該學的都學學,其中ORM框架,最早我用的是jdbcTemplate,后來用了Mybatis,唯獨沒有用過JPA(Hibernate)系的,過去覺得Hibernate太重量級了,后來隨着springboot和spring data jpa出來之后,讓我覺得好像還不錯,再加上谷歌趨勢。。。

 只有中日韓在大規模用Mybatis(我嚴重懷疑是中國的外包),所以就很奇怪,雖然說中國的IT技術在慢慢抬頭了,但是這社會IT發展的主導目前看來還是美國、歐洲,這里JPA、Hibernate是絕對的主流,那么我覺得學習並以JPA為主開發是我接下來個人項目的選擇。

那么經過幾天簡單的摸索,發現JPA可以說是非常的好用,尤其DDD設計思想簡直完美符合現在springboot、微服務的設計理念(僅代表個人看法)。

不過呢,在使用過程中就會遇到一個問題,我之前寫的爬蟲插入效率非常低,一方面是因為我服務器上Mysql表現的極差,詳情請看:

[評測]低配環境下,PostgresQL和Mysql讀寫性能簡單對比(歡迎大家提出Mysql優化意見)

另外一方面,JPA的批量插入源碼:

這saveAll明明就是循環調用save方法了啊,我們寫個簡單的測試插入數據方法試一下:

我們打開了Hibernate顯示sql日志,看一下輸出結果:

 

看日志,JPA是先把所有的數據全查出來了,如果數據庫有就更新,沒有就新增。我們再看一下阿里的監控,如果沒有配可以按照這個文章里面的方法配

springboot2.0配置連接池(hikari、druid)

 

 我插了5條數據,結果執行了10次sql,這特么。。。我不太能理解,可能是我太菜了?我跑腳本至少了成千上萬條數據往庫里插,這種寫法得給我辣雞數據庫寫死。

並且這樣效率也太低了吧,查詢不會用in?insert不會拼sql?並且很多場景我自己能控制是插入還是新增,我根本不需要你給我校驗一次,我只想安安靜靜的插數據,那么有沒有辦法呢?有的。

在配置文件里加入:

spring.jpa.properties.hibernate.jdbc.batch_size=500
spring.jpa.properties.hibernate.jdbc.batch_versioned_data=true
spring.jpa.properties.hibernate.order_inserts=true
spring.jpa.properties.hibernate.order_updates =true

這個batch size建議設置成你數據庫每秒最大寫入數/2 ,沒有理由只是我自己感覺這樣好一點。。。

自己在repository里面定義兩個接口 batchSave,batchUpdate並實現:

@Override
    @Transactional
    public <S extends T> Iterable<S> batchSave(Iterable<S> var1) {
        Iterator<S> iterator = var1.iterator();
        int index = 0;
        while (iterator.hasNext()){
            em.persist(iterator.next());
            index++;
            if (index % BATCH_SIZE == 0){
                em.flush();
                em.clear();
            }
        }
        if (index % BATCH_SIZE != 0){
            em.flush();
            em.clear();
        }
        return var1;
    }
@Override
    public <S extends T> Iterable<S> batchUpdate(Iterable<S> var1) {
        Iterator<S> iterator = var1.iterator();
        int index = 0;
        while (iterator.hasNext()){
            em.merge(iterator.next());
            index++;
            if (index % BATCH_SIZE == 0){
                em.flush();
                em.clear();
            }
        }
        if (index % BATCH_SIZE != 0){
            em.flush();
            em.clear();
        }
        return var1;
    }

然后對批量插入的入口稍作改動,改成剛剛自己實現的調用batchSave的方法

我們運行一下看看結果:

這次500條用了778毫秒,跟之前5條712相差不多,但是我們大家看到了,控制台打印了500條插入語句。。。這個導致我一度以為批量插入失敗了,按理說看時間是成功了呀,所以后來配置了阿里的監控一看:

放心了,是Hibernate自己日志打印有問題,所以后來我給Hibernate日志打印關掉了,專心用阿里的druid


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM