Oracle查询速度慢的原因总结
站在用户的角度思考问题,与客户深入沟通,找到穆棱网站设计与穆棱网站推广的解决方案,凭借多年的经验,让设计与互联网技术结合,创造个性化、用户体验好的作品,建站类型包括:做网站、成都做网站、企业官网、英文网站、手机端网站、网站推广、空间域名、虚拟空间、企业邮箱。业务覆盖穆棱地区。
查询速度慢的原因很多,常见如下几种:
1,没有索引或者没有用到索引(这是查询慢最常见的问题,是程序设计的缺陷)
2,I/O吞吐量小,形成了瓶颈效应.
3,没有创建计算列导致查询不优化.
4,内存不足
5,网络速度慢
6,查询出的数据量过大(可以采用多次查询,其他的方法降低数据量)
7,锁或者死锁(这也是查询慢最常见的问题,是程序设计的缺陷)
8,sp_lock,sp_who,活动的用户查看,原因是读写竞争资源.
9,返回了不必要的行和列
10,查询语句不好,没有优化
可以通过如下方法来优化查询 :
1,把数据,日志,索引放到不同的I/O设备上,增加读取速度,以前可以将Tempdb应放在RAID0上,SQL2000不在支持.数据量(尺寸)越大,提高I/O越重要.
2,纵向,横向分割表,减少表的尺寸(sp_spaceuse)
3,升级硬件
4,根据查询条件,建立索引,优化索引,优化访问方式,限制结果集的数据量.注意填充因子要适当(最好是使用默认值0).索引应该尽量小,使用字节数小的列建索引好(参照索引的创建),不要对有限的几个值的字段建单一索引如性别字段
5,提高网速;
6,扩大服务器的内存,Windows 2000和SQL server 2000能支持4-8G的内存.配置虚拟内存:虚拟内存大小应基于计算机上并发运行的服务进行配置.运行 Microsoft SQL Server? 2000 时,可考虑将虚拟内存大小设置为计算机中安装的物理内存的 1.5 倍.如果另外安装了全文检索功能,并打算运行 Microsoft 搜索服务以便执行全文索引和查询,可考虑:将虚拟内存大小配置为至少是计算机中安装的物理内存的 3 倍.将 SQL Server max server memory 服务器配置选项配置为物理内存的 1.5 倍(虚拟内存大小设置的一半).
7,增加服务器 CPU个数;但是必须明白并行处理串行处理更需要资源例如内存.使用并行还是串行程是MsSQL自动评估选择的.单个任务分解成多个任务,就可以在处理器上运行.例如耽搁查询的排序,连接,扫描和GROUP BY字句同时执行,SQL SERVER根据系统的负载情况决定最优的并行等级,复杂的需要消耗大量的CPU的查询最适合并行处理.但是更新操作Update,Insert, Delete还不能并行处理.
8,如果是使用like进行查询的话,简单的使用index是不行的,但是全文索引,耗空间. like 'a%' 使用索引 like '%a' 不使用索引用 like '%a%' 查询时,查询耗时和字段值总长度成正比,所以不能用CHAR类型,而是VARCHAR.对于字段的值很长的建全文索引.
9,DB Server 和APPLication Server 分离;OLTP和OLAP分离
10,分布式分区视图可用于实现数据库服务器联合体.联合体是一组分开管理的服务器,但它们相互协作分担系统的处理负荷.这种通过分区数据形成数据库服务器联合体的机制能够扩大一组服务器,以支持大型的多层 Web 站点的处理需要.有关更多信息,参见设计联合数据库服务器.(参照SQL帮助文件'分区视图')
a,在实现分区视图之前,必须先水平分区表
b,在创建成员表后,在每个成员服务器上定义一个分布式分区视图,并且每个视图具有相同的名称.这样,引用分布式分区视图名的查询可以在任何一个成员服务器上运行.系统操作如同每个成员服务器上都有一个原始表的复本一样,但其实每个服务器上只有一个成员表和一个分布式分区视图.数据的位置对应用程序是透明的.
11,重建索引 DBCC REINDEX ,DBCC INDEXDEFRAG,收缩数据和日志 DBCC SHRINKDB,DBCC SHRINKFILE. 设置自动收缩日志.对于大的数据库不要设置数据库自动增长,它会降低服务器的性能.在T-sql的写法上有很大的讲究,下面列出常见的要点:首先, DBMS处理查询计划的过程是这样的:
1, 查询语句的词法,语法检查
2, 将语句提交给DBMS的查询优化器
3, 优化器做代数优化和存取路径的优化
4, 由预编译模块生成查询规划
5, 然后在合适的时间提交给系统处理执行
6, 最后将执行结果返回给用户其次,看一下SQL SERVER的数据存放的结构:一个页面的大小为8K(8060)字节,8个页面为一个盘区,按照B树存放.
12,Commit和rollback的区别 Rollback:回滚所有的事物. Commit:提交当前的事物. 没有必要在动态SQL里写事物,如果要写请写在外面如: begin tran exec(@s) commit trans 或者将动态SQL 写成函数或者存储过程.
13,在查询Select语句中用Where字句限制返回的行数,避免表扫描,如果返回不必要的数据,浪费了服务器的I/O资源,加重了网络的负担降低性能.如果表很大,在表扫描的期间将表锁住,禁止其他的联接访问表,后果严重.
14,SQL的注释申明对执行没有任何影响15,尽可能不使用光标,它占用大量的资源.如果需要row-by-row地执行,尽量采用非光标技术,如:在客户端循环,用临时表,Table变量,用子查询,用Case语句等等.游标可以按照它所支持的提取选项进行分类: 只进 必须按照从第一行到最后一行的顺序提取行.FETCH NEXT 是唯一允许的提取操作,也是默认方式.可滚动性可以在游标中任何地方随机提取任意行.游标的技术在SQL2000下变得功能很强大,他的目的是支持循环.有四个并发选项 READ_ONLY:不允许通过游标定位更新(Update),且在组成结果集的行中没有锁. OPTIMISTIC WITH valueS:乐观并发控制是事务控制理论的一个标准部分.乐观并发控制用于这样的情形,即在打开游标及更新行的间隔中,只有很小的机会让第二个用户更新某一行.当某个游标以此选项打开时,没有锁控制其中的行,这将有助于最大化其处理能力.如果用户试图修改某一行,则此行的当前值会与最后一次提取此行时获取的值进行比较.如果任何值发生改变,则服务器就会知道其他人已更新了此行,并会返回一个错误.如果值是一样的,服务器就执行修改.选择这个并发选项OPTIMISTIC WITH ROW VERSIONING:此乐观并发控制选项基于行版本控制.使用行版本控制,其中的表必须具有某种版本标识符,服务器可用它来确定该行在读入游标后是否有所更改.在 SQL Server 中,这个性能由 timestamp 数据类型提供,它是一个二进制数字,表示数据库中更改的相对顺序.每个数据库都有一个全局当前时间戳值:@@DBTS.每次以任何方式更改带有 timestamp 列的行时,SQL Server 先在时间戳列中存储当前的 @@DBTS 值,然后增加 @@DBTS 的值.如果某 个表具有 timestamp 列,则时间戳会被记到行级.服务器就可以比较某行的当前时间戳值和上次提取时所存储的时间戳值,从而确定该行是否已更新.服务器不必比较所有列的值,只需比较 timestamp 列即可.如果应用程序对没有 timestamp 列的表要求基于行版本控制的乐观并发,则游标默认为基于数值的乐观并发控制. SCROLL LOCKS 这个选项实现悲观并发控制.在悲观并发控制中,在把数据库的行读入游标结果集时,应用程序将试图锁定数据库行.在使用服务器游标时,将行读入游标时会在其上放置一个更新锁.如果在事务内打开游标,则该事务更新锁将一直保持到事务被提交或回滚;当提取下一行时,将除去游标锁.如果在事务外打开游标,则提取下一行时,锁就被丢弃.因此,每当用户需要完全的悲观并发控制时,游标都应在事务内打开.更新锁将阻止任何其它任务获取更新锁或排它锁,从而阻止其它任务更新该行.然而,更新锁并不阻止共享锁,所以它不会阻止其它任务读取行,除非第二个任务也在要求带更新锁的读取.滚动锁根据在游标定义的 Select 语句中指定的锁提示,这些游标并发选项可以生成滚动锁.滚动锁在提取时在每行上获取,并保持到下次提取或者游标关闭,以先发生者为准.下次提取时,服务器为新提取中的行获取滚动锁,并释放上次提取中行的滚动锁.滚动锁独立于事务锁,并可以保持到一个提交或回滚操作之后.如果提交时关闭游标的选项为关,则 COMMIT 语句并不关闭任何打开的游标,而且滚动锁被保留到提交之后,以维护对所提取数据的隔离.所获取滚动锁的类型取决于游标并发选项和游标 Select 语句中的锁提示.锁提示 只读 乐观数值 乐观行版本控制 锁定无提示 未锁定 未锁定 未锁定 更新 NOLOCK 未锁定未锁定未锁定 未锁定 HOLDLOCK 共享 共享 共享 更新 UPDLOCK 错误 更新 更新 更新 TABLOCKX 错误 未锁定未锁定更新其它 未锁定 未锁定 未锁定 更新 *指定 NOLOCK 提示将使指定了该提示的表在游标内是只读的.
16,用Profiler来跟踪查询,得到查询所需的时间,找出SQL的问题所在;用索引优化器优化索引
17,注意UNion和UNion all 的区别.UNION all好
18,注意使用DISTINCT,在没有必要时不要用,它同UNION一样会使查询变慢.重复的记录在查询里是没有问题的
19,查询时不要返回不需要的行,列
20,用sp_configure 'query governor cost limit'或者SET QUERY_GOVERNOR_COST_LIMIT来限制查询消耗的资源.当评估查询消耗的资源超出限制时,服务器自动取消查询,在查询之前就扼杀掉. SET LOCKTIME设置锁的时间.
21,用select top 100 / 10 Percent 来限制用户返回的行数或者SET ROWCOUNT来限制操作的行
22,在SQL2000以前,一般不要用如下的字句: "IS NULL", "", "!=", "!", "!", "NOT", "NOT EXISTS", "NOT IN", "NOT LIKE", and "LIKE '%500'",因为他们不走索引全是表扫描.也不要在Where字句中的列名加函数,如Convert,substring等,如果必须用函数的时候,创建计算列再创建索引来替代.还可以变通写法:Where SUBSTRING(firstname,1,1) = 'm'改为Where firstname like 'm%'(索引扫描),一定要将函数和列名分开.并且索引不能建得太多和太大.NOT IN会多次扫描表,使用EXISTS,NOT EXISTS ,IN , LEFT OUTER JOIN 来替代,特别是左连接,而Exists比IN更快,最慢的是NOT操作.如果列的值含有空,以前它的索引不起作用,现在2000的优化器能够处理了.相同的是IS NULL,"NOT", "NOT EXISTS", "NOT IN"能优化她,而""等还是不能优化,用不到索引.
23,使用Query Analyzer,查看SQL语句的查询计划和评估分析是否是优化的SQL.一般的20%的代码占据了80%的资源,我们优化的重点是这些慢的地方.
24,如果使用了IN或者OR等时发现查询没有走索引,使用显示申明指定索引: Select * FROM PersonMember (INDEX = IX_Title) Where processid IN ('男','女')
25,将需要查询的结果预先计算好放在表中,查询的时候再Select.这在SQL7.0以前是最重要的手段.例如医院的住院费计算.
26,MIN() 和 MAX()能使用到合适的索引.
27,数据库有一个原则是代码离数据越近越好,所以优先选择Default,依次为Rules,Triggers, Constraint(约束如外健主健CheckUNIQUE……,数据类型的最大长度等等都是约束),Procedure.这样不仅维护工作小,编写程序质量高,并且执行的速度快.
28,如果要插入大的二进制值到Image列,使用存储过程,千万不要用内嵌Insert来插入 (不知JAVA是否).因为这样应用程序首先将二进制值转换成字符串(尺寸是它的两倍),服务器受到字符后又将他转换成二进制值.存储过程就没有这些动作: 方法:Create procedure p_insert as insert into table(Fimage) values (@image), 在前台调用这个存储过程传入二进制参数,这样处理速度明显改善.
29,Between在某些时候比IN 速度更快,Between能够更快地根据索引找到范围.用查询优化器可见到差别. select * from chineseresume where title in ('男','女') Select * from chineseresume where between '男' and '女' 是一样的.由于in会在比较多次,所以有时会慢些.
30,在必要是对全局或者局部临时表创建索引,有时能够提高速度,但不是一定会这样,因为索引也耗费大量的资源.他的创建同是实际表一样.
31,不要建没有作用的事物例如产生报表时,浪费资源.只有在必要使用事物时使用它.
32,用OR的字句可以分解成多个查询,并且通过UNION 连接多个查询.他们的速度只同是否使用索引有关,如果查询需要用到联合索引,用UNION all执行的效率更高.多个OR的字句没有用到索引,改写成UNION的形式再试图与索引匹配.一个关键的问题是否用到索引.
33,尽量少用视图,它的效率低.对视图操作比直接对表操作慢,可以用stored procedure来代替她.特别的是不要用视图嵌套,嵌套视图增加了寻找原始资料的难度.我们看视图的本质:它是存放在服务器上的被优化好了的已经产生了查询规划的SQL.对单个表检索数据时,不要使用指向多个表的视图,直接从表检索或者仅仅包含这个表的视图上读,否则增加了不必要的开销,查询受到干扰.为了加快视图的查询,MsSQL增加了视图索引的功能.
34,没有必要时不要用DISTINCT和ORDER BY,这些动作可以改在客户端执行.它们增加了额外的开销.这同UNION 和UNION ALL一样的道理.
select top 20 ad.companyname,comid,position,ad.referenceid,worklocation, convert(varchar(10),ad.postDate,120) as postDate1,workyear,degreedescription FROM jobcn_query.dbo.COMPANYAD_query ad where referenceID in('JCNAD00329667','JCNAD132168','JCNAD00337748','JCNAD00338345','JCNAD00333138','JCNAD00303570','JCNAD00303569','JCNAD00303568','JCNAD00306698',
'JCNAD00231935','JCNAD00231933','JCNAD00254567','JCNAD00254585','JCNAD00254608','JCNAD00254607','JCNAD00258524',
'JCNAD00332133','JCNAD00268618','JCNAD00279196','JCNAD00268613') order by postdate desc
35,在IN后面值的列表中,将出现最频繁的值放在最前面,出现得最少的放在最后面,减少判断的次数.
36,当用Select INTO时,它会锁住系统表(sysobjects,sysindexes等等),阻塞其他的连接的存取.创建临时表时用显示申明语句,而不是 select INTO. drop table t_lxh begin tran select * into t_lxh from chineseresume where ——commit 在另一个连接中Select * from sysobjects可以看到 Select INTO 会锁住系统表,Create table 也会锁系统表(不管是临时表还是系统表).所以千万不要在事物内使用它!!!这样的话如果是经常要用的临时表请使用实表,或者临时表变量.
37,一般在GROUP BY 个HAVING字句之前就能剔除多余的行,所以尽量不要用它们来做剔除行的工作.他们的执行顺序应该如下最优:select 的Where字句选择所有合适的行,Group By用来分组个统计行,Having字句用来剔除多余的分组.这样Group By 个Having的开销小,查询快.对于大的数据行进行分组和Having十分消耗资源.如果Group BY的目的不包括计算,只是分组,那么用Distinct更快
38,一次更新多条记录比分多次更新每次一条快,就是说批处理好
39,少用临时表,尽量用结果集和Table类性的变量来代替它,Table 类型的变量比临时表好
40,在SQL2000下,计算字段是可以索引的,需要满足的条件如下:
a,计算字段的表达是确定的
b,不能用在TEXT,Ntext,Image数据类型
c,必须配制如下选项 ANSI_NULLS = ON, ANSI_PADDINGS = ON, …….
41,尽量将数据的处理工作放在服务器上,减少网络的开销,如使用存储过程.存储过程是编译好,优化过,并且被组织到一个执行规划里,且存储在数据库中的SQL语句,是控制流语言的集合,速度当然快.反复执行的动态SQL,可以使用临时存储过程,该过程(临时表)被放在Tempdb中.以前由于SQL SERVER对复杂的数学计算不支持,所以不得不将这个工作放在其他的层上而增加网络的开销.SQL2000支持UDFs,现在支持复杂的数学计算,函数的返回值不要太大,这样的开销很大.用户自定义函数象光标一样执行的消耗大量的资源,如果返回大的结果采用存储过程
42,不要在一句话里再三的使用相同的函数,浪费资源,将结果放在变量里再调用更快
43,Select COUNT(*)的效率教低,尽量变通他的写法,而EXISTS快.同时请注意区别: select count(Field of null) from Table 和 select count(Field of NOT null) from Table 的返回值是不同的!!!
44,当服务器的内存够多时,配制线程数量 = 最大连接数+5,这样能发挥最大的效率;否则使用 配制线程数量最大连接数启用SQL SERVER的线程池来解决,如果还是数量 = 最大连接数+5,严重的损害服务器的性能.
45,按照一定的次序来访问你的表.如果你先锁住表A,再锁住表B,那么在所有的存储过程中都要按照这个顺序来锁定它们.如果你(不经意的)某个存储过程中先锁定表B,再锁定表A,这可能就会导致一个死锁.如果锁定顺序没有被预先详细的设计好,死锁很难被发现
46,通过SQL Server Performance Monitor监视相应硬件的负载 Memory: Page Faults / sec计数器如果该值偶尔走高,表明当时有线程竞争内存.如果持续很高,则内存可能是瓶颈.
Process:
1,% DPC Time 指在范例间隔期间处理器用在缓延程序调用(DPC)接收和提供服务的百分比.(DPC 正在运行的为比标准间隔优先权低的间隔). 由于 DPC 是以特权模式执行的,DPC 时间的百分比为特权时间百分比的一部分.这些时间单独计算并且不属于间隔计算总数的一部 分.这个总数显示了作为实例时间百分比的平均忙时.
2,%Processor Time计数器 如果该参数值持续超过95%,表明瓶颈是CPU.可以考虑增加一个处理器或换一个更快的处理器.
3,% Privileged Time 指非闲置处理器时间用于特权模式的百分比.(特权模式是为操作系统组件和操纵硬件驱动程序而设计的一种处理模式.它允许直接访问硬件和所有内存.另一种模式为用户模式,它是一种为应用程序,环境分系统和整数分系统设计的一种有限处理模式.操作系统将应用程序线程转换成特权模式以访问操作系统服务).特权时间的 % 包括为间断和 DPC 提供服务的时间.特权时间比率高可能是由于失败设备产生的大数量的间隔而引起的.这个计数器将平均忙时作为样本时间的一部分显示.
4,% User Time表示耗费CPU的数据库操作,如排序,执行aggregate functions等.如果该值很高,可考虑增加索引,尽量使用简单的表联接,水平分割大表格等方法来降低该值. Physical Disk: Curretn Disk Queue Length计数器该值应不超过磁盘数的1.5~2倍.要提高性能,可增加磁盘. SQLServer:Cache Hit Ratio计数器该值越高越好.如果持续低于80%,应考虑增加内存. 注意该参数值是从SQL Server启动后,就一直累加记数,所以运行经过一段时间后,该值将不能反映系统当前值.
47,分析select emp_name form employee where salary 3000 在此语句中若salary是Float类型的,则优化器对其进行优化为Convert(float,3000),因为3000是个整数,我们应在编程时使用3000.0而不要等运行时让DBMS进行转化.同样字符和整型数据的转换.
48,查询的关联同写的顺序
select a.personMemberID, * from chineseresume a,personmember b where personMemberID = b.referenceid and a.personMemberID = 'JCNPRH39681' (A = B ,B = '号码')
select a.personMemberID, * from chineseresume a,personmember b where a.personMemberID = b.referenceid and a.personMemberID = 'JCNPRH39681' and b.referenceid = 'JCNPRH39681' (A = B ,B = '号码', A = '号码')
select a.personMemberID, * from chineseresume a,personmember b where b.referenceid = 'JCNPRH39681' and a.personMemberID = 'JCNPRH39681' (B = '号码', A = '号码')
一、 提高DML操作的办法:\x0d\x0a简单说来:\x0d\x0a1、暂停索引,更新后恢复.避免在更新的过程中涉及到索引的重建.\x0d\x0a2、批量更新,每更新一些记录后及时进行提交动作.避免大量占用回滚段和或临时表空间.\x0d\x0a3、创建一临时的大的表空间用来应对这些更新动作.\x0d\x0a\x0d\x0a4、批量更新,每更新一些记录后及时进行提交动作.避免大量占用回滚段和或临时表空间.\x0d\x0a\x0d\x0a5、创建一临时的大的表空间用来应对这些更新动作.\x0d\x0a\x0d\x0a6、加大排序缓冲区\x0d\x0a alter session set sort_area_size=100000000;\x0d\x0a insert into tableb select * from tablea;\x0d\x0a commit;\x0d\x0a\x0d\x0a如果UPDATE的是索引字段,就会涉及到索引的重建,暂停索引不会提高多少的速度,反而有可能降低UPDATE速度,\x0d\x0a因为在更新是索引可以提高数据的查询速度,重建索引引起的速度降低影响不大。\x0d\x0a\x0d\x0aORACLE优化修改参数最多也只能把性能提高15%,大部分都是SQL语句的优化!\x0d\x0a\x0d\x0aupdate总体来说比insert要慢 :\x0d\x0a几点建议: \x0d\x0a 1、如果更新的数据量接近整个表,就不应该使用index而应该采用全表扫描 \x0d\x0a 2、减少不必要的index,因为update表通常需要update index \x0d\x0a 3、如果你的服务器有多个cpu,采用parellel hint,可以大幅度的提高效率\x0d\x0a 另外,建表的参数非常重要,对于更新非常频繁的表,建议加大PCTFREE的值,以保证数据块中有足够的空间用于UPDATE, 从而降低CHAINED_ROWS。 \x0d\x0a\x0d\x0a二、 各种批量DML操作:\x0d\x0a(1)、oracle批量拷贝:\x0d\x0aset arraysize 20\x0d\x0a set copycommit 5000\x0d\x0a copy from username/password@oraclename append table_name1\x0d\x0a using select * from table_name2;\x0d\x0a (2)、常规插入方式:\x0d\x0a insert into t1 select * from t;\x0d\x0a 为了提高速度可以使用下面方法,来减少插入过程中产生的日志:\x0d\x0a alter table t1 nologging;\x0d\x0ainsert into t1 select * from t;\x0d\x0acommit;\x0d\x0a (3)、CTAS方式:\x0d\x0a create table t1\x0d\x0aas\x0d\x0aselect * from t;\x0d\x0a为了提高速度可以使用下面方法,来减少插入过程中产生的日志,并且可以制定并行度:\x0d\x0acreate table t1 nologging parallel(degree 2) as select * from t;\x0d\x0a (4)、Direct-Path插入:\x0d\x0a insert /*+append*/ into t1 select * from t;\x0d\x0a commit;\x0d\x0a 为了提高速度可以使用下面方法,来减少插入过程中产生的日志:\x0d\x0a alter table t1 nologging;\x0d\x0a insert /*+append*/ into t1 select * from t;\x0d\x0a \x0d\x0a Direct-Path插入特点:\x0d\x0a1、 append只在insert ? select ?中起作用,像insert /*+ append */ into t values(?)这类的语句是不起作用的。在update、delete操作中,append也不起作用。\x0d\x0a2、 Direct-Path会使数据库不记录直接路径导入的数据的重做日志,会对恢复带来麻烦。\x0d\x0a3、 Direct-Path直接在表段的高水位线以上的空白数据块中写数据,不会重用高水位线以下的空间,会对空间的使用造成一定的浪费,对查询的性能也会造成一定的影响。而常规插入会优先考虑使用高水位线之下有空闲空间存在的数据块。因此理论上Direct-Path插入会比常规插入速度更快,因为Direct-Path直接使用新数据块,而常规插入要遍历freelist获取可用空闲数据块,如果同 nologging 配合,这种速度优势会更加明显。\x0d\x0a4、 以append方式插入记录后,要执行commit,才能对表进行查询。否则会出现错误:ORA-12838: 无法在并行模式下修改之后读/修改对象。\x0d\x0a5、 用append导入数据后,如果没有提交或者回滚,在其他会话中任何对该表的DML都会被阻塞(不会报错),但对该表的查询可以正常执行。\x0d\x0a6、 在归档模式下,要把表设置为nologging,然后以append方式批量添加记录,才会显著减少redo数量。在非归档模式下,不必设置表的 nologging属性,即可减少redo数量。如果表上有索引,则append方式批量添加记录,不会减少索引上产生的redo数量,索引上的redo 数量可能比表的redo数量还要大。\x0d\x0a7、 数据直接插入数据文件,绕过buffer cache并且忽略了引用完整性约束。\x0d\x0a8、 不管表是否在nologging 下,只要是 direct insert,就不会对数据内容生成undo。\x0d\x0a9、 Oracle在Direct-Path INSERT 操作末尾,对具有索引的表执行索引维护,这样就避免了在drop掉索引后,再rebuild。\x0d\x0a10、 Direct-Path INSERT比常规的插入需要更多的空间。因为它将数据插入在高水位之上。并行插入非分区表需要更多的空间,因为它需要为每一个并行线程创建临时段。\x0d\x0a11、 在插入期间,数据库在表上获得排他锁,用户不能在表上执行并行插入、更新或者删除操作,并行的索引创建和build也不被允许。但却可以并行查询,但查询返回的是插入之前的结果集。\x0d\x0a (5)、并行DML:\x0d\x0a 如果你的服务器有多个cpu,采用parellel hint,可以大幅度的提高效率\x0d\x0a ALTER SESSION ENABLE PARALLEL DML;\x0d\x0a\x0d\x0a INSERT /*+ PARALLEL(tableA, 2) */INTO tableA \x0d\x0a SELECT * FROM tableB;\x0d\x0a\x0d\x0a 为了提高速度可以使用下面方法,来减少插入过程中产生的日志:\x0d\x0a\x0d\x0a INSERT /*+ PARALLEL(tableA, 2) */INTO tableA NOLOGGING\x0d\x0a SELECT * FROM tableB;\x0d\x0a\x0d\x0aoracle默认并不会打开PDML,对DML语句必须手工启用。即需要执行\x0d\x0aalter table enable parallel dml命令。\x0d\x0a \x0d\x0a并行DML特点:\x0d\x0a1、在并行DML模式中,默认的就是DIRECT-PATH插入,为了运行并行DML模式,必须满足以下条件:\x0d\x0aa、必须是Oracle企业版;\x0d\x0ab、必须在session中使并行DML生效,执行以下sql语句:\x0d\x0aALTER SESSION { ENABLE | FORCE } PARALLEL DML;\x0d\x0ac、必须指定table的并行属性,在创建的时候或者其他时候,或者在insert操作时使用“PARALLEL”提示。\x0d\x0ad、为了使Direct-Path Insert模式失效,在INSERT语句中指定“NOAPPEND”提示,覆盖并行DML模式。\x0d\x0a 2、并行Direct-Path INSERT到分区表:\x0d\x0a 类似于serial Direct-Path INSERT,每个并行操作分配给一个或者多个分区,每个并行操作插入数据到各自的分区段的高水位标志之上,commit之后,用户就能看到更新的数据。\x0d\x0a 3、并行Direct-Path INSERT到非分区表:\x0d\x0a 每个并行执行分配一个新的临时段,并插入数据到临时段。当commit运行后,并行执行协调者合并新的临时段到主表段,用户就能看到更新的数据。\x0d\x0a 4、Direct-Path INSERT可以使用Log或者不使用Log。\x0d\x0a 5、另外不得不说的是,并行不是一个可扩展的特性,只有在数据仓库或作为DBA等少数人的工具在批量数据操作时利于充分利用资源,而在OLTP环境下使用并行需要非常谨慎。事实上PDML还是有比较多的限制的,例如不支持触发器,引用约束,高级复制和分布式事务等特性,同时也会带来额外的空间占用,PDDL同 样是如此。
这个 速度慢 是指 使用数据库过程中 查询数据缓慢 还是 数据库运行过程中各项功能缓慢? 如果是查询数据缓慢的话,基本上是因为 与 查询语句逻辑、表结构、执行计划相关,可以根据数据库具体执行计划优化数据库查询,比如 要查询的表没有对应的索引,可以添加索引提高查询速度;或者 要查询的表有过大量的删除与更新,则需要更新表的统计信息以提高查询速度。如果是数据库本身各项功能运行缓慢,那大多是数据库系统各项参数设置不合理,与服务器本身的系统的硬件和系统有关,可以更改数据库相关的系统参数,调整数据库运行所需要的参数以提高数据库运行质量。
1、是这样的。
2、这个说不好,我没这么做过。你手边应该有oralce的全套电子文档吧。关键是你要找对系统表或者视图。我记得索引的系统视图不是这个。
3、这些与你要做的有关系吗?别像没头苍蝇一样瞎撞了。
4、不用删表,如果你连基本的语句命令都不懂,那只能看书了。
5、慢的原因有好多,逐步排除吧,等找到真正原因再说。急没用的。
6、默认情况下,是会建到用户的默认表空间的。
7、这个看你的维护需要。最起码先弄明白你的库是怎么回事再说吧。就从这些问题看,你根本就是门外汉,连库是怎么回事都没弄明白。
1、可以缩小到5张表,因为很多都是从一张表里取出来的数据;
2、不能子查询因为是要显示数据子查询只是查询条件;
3不能建立索引,因为这样会影响表的增删改,它里面都是导入进去的一次增加上千条都有可能;
4、定期结转是什么意思,表示没看懂。时间发的太长的话就算了;
5、定期结转的意思就是,将你要建立视图的几种表数据“转移”到一张新表里面去,不用视图查询。数据库全文检索是RDBMS自带的扩展功能,可以实现高速查询。全文检索建议搜索下关键字,什么lucene之类的就出来了。
在公路建设中,通过建立多条车道可以提高道路的流量。其实这个道理在Oracle数据库中也行得通。即可以将关键数据文件存储在多块硬盘上,以提高Oracle数据库的性能。可惜的是,不少数据库管理员没有意识到这一点。在这篇文章中笔者就以Oracle11G为例,说明如何通过在硬盘之间分布关键数据文件来提高性能。 一、在硬盘之间分布关键数据文件的基本原则。
在传统的文件系统上(即不是在裸机上)部署Oracle数据库,可以通过将关键的数据文件分布到多个可用的文件系统上或者不同的硬盘上来提高数据库的性能。具体的来说,需要遵循如下几个原则。
一是对于表来说,往往包含两个部分,即基本表与索引表。只要为基本表中的字段创建了索引,其对应的就有一张索引表。当用户访问表中的数据时,应用系统需要同时访问到索引表与数据表。此时我们可以将这两张表比喻成两辆车。如果现在只有一个车道(即将他们同时存放在一个硬盘或者文件系统中),那么两辆车必须前后行使。而如果现在有两个车道(即将基本表与其相对应的索引表存放在不同的硬盘或者文件系统中),那么这两辆车就可以并排行使。显然,后者的效率更高。为此笔者建议,可将经常需要访问的表和与之对应的索引表分开来存放。
二是可以将日志文件也分开来存放。不光光是数据表与索引表存在着这种状况。其实在日志文件管理中也是如此。只要条件允许,那么最好能够将联机重做日志和归档日志与其它数据文件存放在不同的硬盘或者文件系统上。因为当用户往数据库中写入数据时,需要同时往数据文件与重做日志文件中写入数据。此时如果将它们分开来存放,那么就相当于有了多条车道,分别往不同的文件中写入数据。这无疑就可以提高数据写入的效率,从而提高数据库的性能。
二、哪些文件最好能够分开存放?
在讲到硬盘之间分布关键数据文件的基本原则的时候,笔者举了几个需要分开存放的几个案例。但是在实际工作中,并不仅仅局限于上面提到的这些文件。笔者认为,如果条件允许的话,那么可以考虑将如下文件放置在不同的硬盘上。
一是表空间,如临时表空间、系统表空间、UNDO表空间等等。这三个表空间可能系统会同时进行访问。为此需要将其分开来存放。二是数据文件和索引文件。上面提到过,需要将经常访问的数据文件与其对应的索引文件存放在不同的硬盘上。因为这两类文件在访问数据时也可能会同时访问到。三是操作系统盘与数据库文件单独存放。显然Oracle系统肯定是与操作系统同时运行的。为了避免他们之间的I/Q冲突,就需要将Oracle部署在操作系统盘以外的磁盘上。四是联机重做日志文件。这个文件比较复杂,不但要将其与其他文件分开来存放。而且还需要注意的是,最好能够将其存放在性能最佳的硬盘上。
最后需要说明的一点是,增加磁盘也会增加成本。这不光光是购买磁盘所需要的花费,还包括管理的成本。所以这之间也会涉及到成本与性能之间的一个均衡问题。如果企业的数据不是很多,或者主要是涉及到查询操作,那么这么设计的话,就可能不怎么合理。因为投入要大于回报。
三、如何确定是否需要将文件分开来存放?
在实际工作中,企业的数据是一个从少到多的过程。也就是说,刚开始使用数据库的时候,可能数据量比较少,此时出于成本的考虑,没有将相关文件存放在不同的磁盘上。但是随着工作的深入,用户会发现数据库的性能在逐渐的降低。此时管理员就需要考虑,能够采取这种多建车道的措施,来提高数据库性能。当然在采取这个措施之前,管理员需要先进性评估。此时评估所需要用到的一个指标就是磁盘的I/O争用。
磁盘争用通常发生在有多个进程试图同时访问一个物理磁盘的情况下。如现在用户需要访问某个数据表中的数据,此时系统需要访问索引文件与数据表文件。如果将它们放置在同一磁盘上,那么在访问时就会发生I/O冲突。所以评估I/O冲突的严重程度,可以帮我们来确定是否需要将关键文件存放在不同的磁盘上。
将I/O平均的分布到多个可用的磁盘上,这可以有效的减少磁盘之间的争用情况,提高数据存储与读取的性能。从而提高Oracle等应用程序的效率。在实际工作中,数据库控制文件中有两个参数可以用来帮助我们评估这个指标。这两个参数是文件平均读取时间和文件平均写入时间。不过在使用这两个参数的时候,其只评估所有与数据库相关联的文件。管理员如果有需要的话,也可以通过下面的查询语句来查询数据文件是否存在I/O问题。查询的语法与结果如下图所示:
从如上的查询结果中可以看出某个数据文件是否繁忙,数据文件之间是否存在着/I/O冲突文件。这里需要注意的是,这个结果是一个动态的结果。在不同的时刻、用户进行不同的操作时往往会得出不同的结论。为此笔者建议,在使用这个数据的时候,最好能够多跟踪几次。然后分析多次运行的结果。只有如此,才能够得到比较合乎情理的判断。 通常情况下,管理员根据上面的结果可以得出三种结论。
第一种结论是上面这些数据文件都不是很忙。即文件的平均读取时间与写入时间都比较短,表示这两个文件都是比较空闲的。此时正常情况下,数据库的性能应该是不错的。也就是说,如果此时数据库的性能不理想的话,那么就不是磁盘的I/O所造成的。管理员应该从其他角度来改善数据库的性能。
第二种结论是每个数据库文件都非常的繁忙。此时有可能是读取时间或者写入时间比较长,或者说两个时间都比较长。当多个数据文件同时比较繁忙并且他们处于同一磁盘的话,那么管理员就需要考虑购买新的磁盘,然后将上面提到的这些关键文件重新整理,让他们部署在不同的磁盘上。
第三种结论是某几个特定的数据文件比较繁忙,而其他数据文件还可以。此时管理员如果成本受到限制,那么也不需要重新购买硬盘。在磁盘上的物理写入和读取次数上如果出现比较大的差异,就表明某个磁盘负载过大,即有很严重的I/O冲突。此时最好能够将这个磁盘中的文件进行调整,如将某些文件移动到另外的一块I/O相对不怎么严重的磁盘上。不过在采取这个操作的时候,需要注意一点。对于联机重做日志文件来说,即使其所在的磁盘I/O冲突比较低,或者访问这个文件的时间比较短,但是也不建议将其他数据文件转移到其所在的磁盘上来。因为通常情况下,为了保障数据库的性能,我们都建议将联机重做日志文件单独存放,并且还需要讲起放置在性能比较高的硬盘上。
总之,将关键的Oracle数据库文件分开放置。如此的话可以有效避免磁盘争用成为Oracle数据库系统的性能瓶颈。