方式1:
for循環,每一次進行一次插入數據。
方式2:
jdbc的preparedStatement的batch操作
PreparedStatement.addBatch();
......
PreparedStatement.executeBatch();
一次最多不要超過50條:
1.因為當你插入的時候 數據庫已經鎖定,然而如果你一次性插入太多會造成其他業務的等待。
2.會造成內存的溢出
方式2的本質是:insert into table (a,b,c,d) values(av,bv,cv.dv);insert into table (a,b,c,d) values(...)...
方式3:
for循環拼接sql。成為insert into table (a,b,c,d) values (av,bv,cv,dv),(....),(...).這種形式
別人的經驗之談:
最近項目中使用SSH+oracle數據庫,使用C3P0連接池,要求當執行某動作時在2表中各插入一萬條數據。於是就采用了jdbc的方式插入。
先獲取一個sequence,再將數據插入到數據庫中。一測試時間,崩潰了,用時近3分鍾(其中獲取兩個表的sequence很費時),后來想想以前曾經做過一個類似的項目,使用了主鍵自增的策略,就將主鍵改為自增了。再次測試,還可以,不到3秒。將此代碼記錄下來,以便日后參考。
順便說說,可以使用存儲過程(尤其是操作多個表插數據),這樣效率更快些。
這篇文章也不錯:
這篇論壇文章根據筆者的個人經驗着重介紹了使用insert插入大量數據的常用技巧,更多內容請參考下文: 使用insert插入大量數據的個人經驗總結在很多時候,我們會需要對一個表進行插入大量的數據,並且希望在盡可能短的時間內完成該工作,這里,和大家分享下我平時在做大量數據insert的一些經驗。 前提:在做insert數據之前,如果是非生產環境,請將表的索引和約束去掉,待insert完成后再建索引和約束。 1.insert into tab1 select * from tab2; commit; 這是最基礎的insert語句,我們把tab2表中的數據insert到tab1表中。根據經驗,千萬級的數據可在1小時內完成。但是該方法產生的arch會非常快,需要關注歸檔的產生量,及時啟動備份軟件,避免arch目錄撐爆。 2.alter table tab1 nologging; insert /*+ append */ into tab1 select * from tab2; commit; alter table tab1 logging; 該方法會使得產生arch大大減少,並且在一定程度上提高時間,根據經驗,千萬級的數據可在45分鍾內完成。但是請注意,該方法適合單進程的串行方式,如果當有多個進程同時運行時,后發起的進程會有enqueue的等待。 注意此方法千萬不能dataguard上用(不過要是在database已經force logging那也是不怕的,呵呵)!! 3.insert into tab1 select /*+ parallel */ * from tab2; commit; 對於select之后的語句是全表掃描的情況,我們可以加parallel的hint來提高其並發,這里需要注意的是最大並發度受到初始化參數parallel_max_servers的限制,並發的進程可以通過v$px_session查看,或者ps -ef |grep ora_p查看。 4.alter session enable parallel dml; insert /*+ parallel */ into tab1 select * from tab2; commit; 與方法2相反,並發的insert,尚未比較和方法2哪個效率更高(偶估計是方法2快),有測試過的朋友歡迎補充。 5.insert into tab1 select * from tab2 partition (p1); insert into tab1 select * from tab2 partition (p2); insert into tab1 select * from tab2 partition (p3); insert into tab1 select * from tab2 partition (p4); 對於分區表可以利用tab1進行多個進程的並發insert,分區越多,可以啟動的進程越多。我曾經試過insert 2.6億行記錄的一個表,8個分區,8個進程,如果用方法2,單個進程完成可能要40分鍾,但是由於是有8個分區8個進程,后發進程有enqueue,所以因此需要的時間為40分鍾×8;但是如果用方法5,雖然單個進程需要110分鍾,但是由於能夠並發進程執行,所以總共需要的時間就約為110分鍾了。 6. DECLARE TYPE dtarray IS TABLE OF VARCHAR2(20) INDEX BY BINARY_INTEGER; v_col1 dtarray; v_col2 dtarray; v_col3 dtarray; BEGIN SELECT col1, col2, col3 BULK COLLECT INTO v_col1, v_col2, v_col3 FROM tab2; FORALL i IN 1 .. v_col1.COUNT insert into tab1....; END; 用批量綁定(bulk binding)的方式。當循環執行一個綁定變量的sql語句時候,在PL/SQL 和SQL引擎(engines)中,會發生大量的上下文切換(context switches)。使用bulk binding,能將數據批量的從plsql引擎傳到sql引擎,從而減少上下文切換過程,提升效率。該方法比較適合於在線處理,不必停機。 7.sqlplus -s user/pwd< runlog.txt set copycommit 2; set arraysize 5000; copy from user/pwd@sid - to user/pwd@sid - insert tab1 using select * from tab2; exit EOF 用copy的方法進行插入,注意此處insert沒有into關鍵字。該方法的好處是可以設置copycommit和arrarysize來一起控制commit的頻率,上面的方法是每10000行commit一次。
來自:http://freebile.blog.51cto.com/447744/587120/