spring data jpa開啟批量插入、批量更新的問題解析
最近準備上spring全家桶寫一下個人項目,該學的都學學,其中ORM框架,最早我用的是jdbcTemplate,后來用了Mybatis,唯獨沒有用過JPA(Hibernate)系的,過去覺得Hibernate太重量級了,后來隨著springboot和spring data jpa出來之后,讓我覺得好像還不錯,再加上谷歌趨勢。。。
只有中日韓在大規模用Mybatis(我嚴重懷疑是中國的外包),所以就很奇怪,雖然說中國的IT技術在慢慢抬頭了,但是這社會IT發展的主導目前看來還是美國、歐洲,這里JPA、Hibernate是絕對的主流,那么我覺得學習并以JPA為主開發是我接下來個人項目的選擇。
那么經過幾天簡單的摸索,發現JPA可以說是非常的好用,尤其DDD設計思想簡直完美符合現在springboot、微服務的設計理念(僅代表個人看法)。
不過呢,在使用過程中就會遇到一個問題,我之前寫的爬蟲插入效率非常低,一方面是因為我服務器上Mysql表現的極差,詳情請看:
[評測]低配環境下,PostgresQL和Mysql讀寫性能簡單對比(歡迎大家提出Mysql優化意見)
另外一方面,JPA的批量插入源碼:
這saveAll明明就是循環調用save方法了啊,我們寫個簡單的測試插入數據方法試一下:
我們打開了Hibernate顯示sql日志,看一下輸出結果:
看日志,JPA是先把所有的數據全查出來了,如果數據庫有就更新,沒有就新增。我們再看一下阿里的監控,如果沒有配可以按照這個文章里面的方法配
springboot2.0配置連接池(hikari、druid)
我插了5條數據,結果執行了10次sql,這特么。。。我不太能理解,可能是我太菜了?我跑腳本至少了成千上萬條數據往庫里插,這種寫法得給我辣雞數據庫寫死。
并且這樣效率也太低了吧,查詢不會用in?insert不會拼sql?并且很多場景我自己能控制是插入還是新增,我根本不需要你給我校驗一次,我只想安安靜靜的插數據,那么有沒有辦法呢?有的。
在配置文件里加入:
spring.jpa.properties.hibernate.jdbc.batch_size=500spring.jpa.properties.hibernate.jdbc.batch_versioned_data=truespring.jpa.properties.hibernate.order_inserts=truespring.jpa.properties.hibernate.order_updates =true
這個batch size建議設置成你數據庫每秒最大寫入數/2 ,沒有理由只是我自己感覺這樣好一點。。。
自己在repository里面定義兩個接口 batchSave,batchUpdate并實現:
@Override @Transactional public <S extends T> Iterable<S> batchSave(Iterable<S> var1) {Iterator<S> iterator = var1.iterator();int index = 0;while (iterator.hasNext()){ em.persist(iterator.next()); index++; if (index % BATCH_SIZE == 0){em.flush();em.clear(); }}if (index % BATCH_SIZE != 0){ em.flush(); em.clear();}return var1; }
@Override public <S extends T> Iterable<S> batchUpdate(Iterable<S> var1) {Iterator<S> iterator = var1.iterator();int index = 0;while (iterator.hasNext()){ em.merge(iterator.next()); index++; if (index % BATCH_SIZE == 0){em.flush();em.clear(); }}if (index % BATCH_SIZE != 0){ em.flush(); em.clear();}return var1; }
然后對批量插入的入口稍作改動,改成剛剛自己實現的調用batchSave的方法
我們運行一下看看結果:
這次500條用了778毫秒,跟之前5條712相差不多,但是我們大家看到了,控制臺打印了500條插入語句。。。這個導致我一度以為批量插入失敗了,按理說看時間是成功了呀,所以后來配置了阿里的監控一看:
放心了,是Hibernate自己日志打印有問題,所以后來我給Hibernate日志打印關掉了,專心用阿里的druid
到此這篇關于spring data jpa開啟批量插入、批量更新的文章就介紹到這了,更多相關spring data jpa插入 更新內容請搜索好吧啦網以前的文章或繼續瀏覽下面的相關文章希望大家以后多多支持好吧啦網!
相關文章:
