java批量插入數據進數據庫中


方式1:

for循環,每一次進行一次插入數據。

 

方式2:

jdbc的preparedStatement的batch操作

PreparedStatement.addBatch();

......
PreparedStatement.executeBatch();

一次最多不要超過50條:
1.因為當你插入的時候 數據庫已經鎖定,然而如果你一次性插入太多會造成其他業務的等待。
2.會造成內存的溢出

方式2的本質是:insert into table (a,b,c,d) values(av,bv,cv.dv);insert into table (a,b,c,d) values(...)...

 

方式3:

for循環拼接sql。成為insert into table (a,b,c,d) values (av,bv,cv,dv),(....),(...).這種形式

 

 

別人的經驗之談:

  最近項目中使用SSH+oracle數據庫,使用C3P0連接池,要求當執行某動作時在2表中各插入一萬條數據。於是就采用了jdbc的方式插入。 
    先獲取一個sequence,再將數據插入到數據庫中。一測試時間,崩潰了,用時近3分鍾(其中獲取兩個表的sequence很費時),后來想想以前曾經做過一個類似的項目,使用了主鍵自增的策略,就將主鍵改為自增了。再次測試,還可以,不到3秒。將此代碼記錄下來,以便日后參考。 
    順便說說,可以使用存儲過程(尤其是操作多個表插數據),這樣效率更快些。 

 

 

這篇文章也不錯:

這篇論壇文章根據筆者的個人經驗着重介紹了使用insert插入大量數據的常用技巧,更多內容請參考下文: 使用insert插入大量數據的個人經驗總結在很多時候,我們會需要對一個表進行插入大量的數據,並且希望在盡可能短的時間內完成該工作,這里,和大家分享下我平時在做大量數據insert的一些經驗。 前提:在做insert數據之前,如果是非生產環境,請將表的索引和約束去掉,待insert完成后再建索引和約束。
1.insert into tab1 select * from tab2;
commit;
這是最基礎的insert語句,我們把tab2表中的數據insert到tab1表中。根據經驗,千萬級的數據可在1小時內完成。但是該方法產生的arch會非常快,需要關注歸檔的產生量,及時啟動備份軟件,避免arch目錄撐爆。
2.alter table tab1 nologging;
insert /*+ append */ into tab1 select * from tab2;
commit;
alter table tab1 logging;
該方法會使得產生arch大大減少,並且在一定程度上提高時間,根據經驗,千萬級的數據可在45分鍾內完成。但是請注意,該方法適合單進程的串行方式,如果當有多個進程同時運行時,后發起的進程會有enqueue的等待。
注意此方法千萬不能dataguard上用(不過要是在database已經force logging那也是不怕的,呵呵)!!
3.insert into tab1 select /*+ parallel */ * from tab2;
commit;
對於select之后的語句是全表掃描的情況,我們可以加parallel的hint來提高其並發,這里需要注意的是最大並發度受到初始化參數parallel_max_servers的限制,並發的進程可以通過v$px_session查看,或者ps -ef |grep ora_p查看。
4.alter session enable parallel dml;
insert /*+ parallel */ into tab1 select * from tab2;
commit;
與方法2相反,並發的insert,尚未比較和方法2哪個效率更高(偶估計是方法2快),有測試過的朋友歡迎補充。
5.insert into tab1 select * from tab2 partition (p1);
insert into tab1 select * from tab2 partition (p2);
insert into tab1 select * from tab2 partition (p3);
insert into tab1 select * from tab2 partition (p4);
對於分區表可以利用tab1進行多個進程的並發insert,分區越多,可以啟動的進程越多。我曾經試過insert 2.6億行記錄的一個表,8個分區,8個進程,如果用方法2,單個進程完成可能要40分鍾,但是由於是有8個分區8個進程,后發進程有enqueue,所以因此需要的時間為40分鍾×8;但是如果用方法5,雖然單個進程需要110分鍾,但是由於能夠並發進程執行,所以總共需要的時間就約為110分鍾了。
6. DECLARE
TYPE dtarray IS TABLE OF VARCHAR2(20) INDEX BY BINARY_INTEGER;
v_col1 dtarray;
v_col2 dtarray;
v_col3 dtarray;
BEGIN
SELECT col1, col2, col3 BULK COLLECT
INTO v_col1, v_col2, v_col3
FROM tab2;
FORALL i IN 1 .. v_col1.COUNT
insert into tab1....;
END;
用批量綁定(bulk binding)的方式。當循環執行一個綁定變量的sql語句時候,在PL/SQL 和SQL引擎(engines)中,會發生大量的上下文切換(context switches)。使用bulk binding,能將數據批量的從plsql引擎傳到sql引擎,從而減少上下文切換過程,提升效率。該方法比較適合於在線處理,不必停機。
7.sqlplus -s user/pwd< runlog.txt
set copycommit 2;
set arraysize 5000;
copy from user/pwd@sid -
to user/pwd@sid -
insert tab1 using select * from tab2;
exit
EOF
用copy的方法進行插入,注意此處insert沒有into關鍵字。該方法的好處是可以設置copycommit和arrarysize來一起控制commit的頻率,上面的方法是每10000行commit一次。

來自:http://freebile.blog.51cto.com/447744/587120/

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM