oracle数据库面试题面试题:在一个上亿条数据的表中,批量插入大量数据,并根据内容重新定义索引,怎么做最有效率

  1. 普通方式处理大量数据的insert时处悝速度相当慢。   
  1. 方法二:通过addBatch()的方式将数据缓存在对象里面,通过最后执行executeBatch();方法提交因此速度会快很多!   
}

  【IT168 评论】在很多时候我们會需要对一个表进行插入大量的数据,并且希望在尽可能短的时间内完成该工作这里,和大家分享下我平时在做大量数据insert的一些经验

  前提:在做insert数据之前,如果是非生产环境请将表的索引和约束去掉,待insert完成后再建索引和约束

  这是最基础的insert语句,我们把tab2表Φ的数据insert到tab1表中根据经验,千万级的数据可在1小时内完成但是该方法产生的arch会非常快,需要关注归档的产生量及时启动备份软件,避免arch目录撑爆

  该方法会使得产生arch大大减少,并且在一定程度上提高时间根据经验,千万级的数据可在45分钟内完成但是请注意,該方法适合单进程的串行方式如果当有多个进程同时运行时,后发起的进程会有enqueue的等待注意此方法千万不能dataguard上用,不过要是在database已经force logging那吔是没有问题的

  对于select之后的语句是全表扫描的情况,我们可以加parallel的hint来提高其并发这里需要注意的是最大并发度受到初始化参数parallel_max_servers的限制,并发的进程可以通过v$px_session查看或者ps -ef |grep ora_p查看。

  与方法2相反并发的insert,尚未比较和方法2哪个效率更高(偶估计是方法2快)有测试过的朋友歡迎补充。

  对于分区表可以利用tab1进行多个进程的并发insert分区越多,可以启动的进程越多我曾经试过insert 2.6亿行记录的一个表,8个分区8个進程,如果用方法2单个进程完成可能要40分钟,但是由于是有8个分区8个进程后发进程有enqueue,所以因此需要的时间为40分钟×8;但是如果用方法5虽然单个进程需要110分钟,但是由于能够并发进程执行所以总共需要的时间就约为110分钟了。

  用批量绑定(bulk binding)的方式当循环执行一个绑萣变量的sql语句时候,在PL/SQL 和SQL引擎(engines)中会发生大量的上下文切换(context switches)。使用bulk binding能将数据批量的从plsql引擎传到sql引擎,从而减少上下文切换过程提升效率。该方法比较适合于在线处理不必停机。

  用copy的方法进行插入注意此处insert没有into关键字。该方法的好处是可以设置copycommit和arrarysize来一起控制commit的频率上面的方法是每10000行commit一次。

  更多精彩尽在2014年4月10日-12日在北京五洲皇冠国际酒店举办的第五届中国数据库技术大会3月25日之前订票可享受8.8折最低票价。

}

我要回帖

更多关于 oracle面试题 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信