另一種思維結局大數據量下merge into慢的問題


同事做一個導入一百萬Excel數據量的需求,讀取對象內存一下就溢出了,所以選擇每次處理一萬數據放入臨時表中,最后對臨時表100萬數據進行去重后與目標表進行merge into ,加上存儲的其他的邏輯,最后一個半小時都沒有完成,且有時候回報回話中斷的錯誤。最后建議根據merge into 的條件將目標表數據進行刪除,刪除后將臨時表所有數據插入目標表,時間消耗果然比merge into 快了不少。而同事之前一直糾結於merge  into 的語句的優化問題,上網搜了merge  into 的用法后,使用三種使用方法的效率高的一種還是不行,所以我們有時候換一種思維方式會取到意想不到的結果@


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM