另一种思维结局大数据量下merge into慢的问题


同事做一个导入一百万Excel数据量的需求,读取对象内存一下就溢出了,所以选择每次处理一万数据放入临时表中,最后对临时表100万数据进行去重后与目标表进行merge into ,加上存储的其他的逻辑,最后一个半小时都没有完成,且有时候回报回话中断的错误。最后建议根据merge into 的条件将目标表数据进行删除,删除后将临时表所有数据插入目标表,时间消耗果然比merge into 快了不少。而同事之前一直纠结于merge  into 的语句的优化问题,上网搜了merge  into 的用法后,使用三种使用方法的效率高的一种还是不行,所以我们有时候换一种思维方式会取到意想不到的结果@


免责声明!

本站转载的文章为个人学习借鉴使用,本站对版权不负任何法律责任。如果侵犯了您的隐私权益,请联系本站邮箱yoyou2525@163.com删除。



 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM