同事做一個導入一百萬Excel數據量的需求,讀取對象內存一下就溢出了,所以選擇每次處理一萬數據放入臨時表中,最后對臨時表100萬數據進行去重后與目標表進行merge into ,加上存儲的其他的邏輯,最后一個半小時都沒有完成,且有時候回報回話中斷的錯誤。最后建議根據merge into 的條件將目標表數據進行刪除,刪除后將臨時表所有數據插入目標表,時間消耗果然比merge into 快了不少。而同事之前一直糾結於merge into 的語句的優化問題,上網搜了merge into 的用法后,使用三種使用方法的效率高的一種還是不行,所以我們有時候換一種思維方式會取到意想不到的結果@