Ⅰ asp中如何優化資料庫好點
在ASP中優化資料庫處理
ASP是一個WEB伺服器端的開發環境,它提供了一種簡單易學的腳本(VBScript或Jscript),並帶有許多內置的對象,從而提供了一條簡捷的編程之路。更為重要的是,ASP中提供了ADO對象,讓程序員可以輕松操作各種資料庫,從而可以產生和運行動態的、交互的WEB服務應用程序。目前,國內很多電子商務站點都採用了ASP技術來與資料庫交互,為用戶提供各類服務。
由於電子商務站點的大部分信息都存放在資料庫中,要提高WEB的響應速度,建立高性能的電子商務站點,很大一部分取決於ASP與資料庫之間的處理性能。因此,在ASP編寫時,要注意資料庫處理方法。
1、 使用Connection pool機制
在資料庫處理中,資源花銷最大的是建立資料庫連接,而且用戶還會有一個較長的連接等待時間。若每一個用戶訪問時,都重新建立連接,不僅用戶要長時間等待,而且系統有可能會由於資源消耗過大而停止響應。如果能夠重用以前建立的資料庫連接,而不是每次訪問時都重新建立連接,則可以很好地解決這些問題,從而提高整個系統的性能。在IIS+ASP處理體系中,採用了Connection pool機制來保證這一點。
Connection pool的原理是,IIS+ASP體系中維持了一個連接緩沖池,建立好的資料庫連接在ASP程序中的斷開都是邏輯斷開,而實際的物理連接被存儲在池中並被維護。這樣,當下一個用戶訪問時,直接從連接緩沖池中取得一個資料庫連接,而不需重新連接資料庫,因此,可以大大地提高系統的響應速度。
為了正確使用Connection pool時,必須注意以下幾點:
a). 在MDAC2.0以前的版本中,必須經過資料庫驅動程序的配置才能使用Connection Pool;在以後的版本中(比如MDAC2.1),預設是使用Connection Pool機制。具體配置情況可以參見微軟公司的站點(http://www.microsoft.com/data/)。
順便提一句,在使用ORACLE資料庫時,最好使用微軟提供的驅動程序。
b). 每次資料庫連接串參數必須相同,否則會被認為是不同的連接而重新去連接資料庫,而不是使用緩沖池中的連接。最好的做法是將連接串存儲在Application變數中,所有的程序在建立連接時使用Application變數的值。
c). 為了更好地使用和維護連接緩沖池,建議在程序中使用以下的方法對資料庫連接進行操作,因為隱式使用資料庫連接時不能利用緩沖池的機制:
¨ 顯示地創建連接對象: Set conn=Server.CreateObject(「Adodb.connection」)
¨ 建立資料庫連接:conn.open Application(「connection_string」),…
¨ 進行資料庫操作:…
¨ 顯式地關閉連接對象:conn.close
2、 利用直接的Ole DB驅動程序
在Asp中,通過ADO可以使用兩種方式連接資料庫,一種是傳統的ODBC方式,一種是Ole DB方式。由於ADO是建立在Ole DB技術上的,為了支持ODBC,必須建立相應的Ole DB 到ODBC的調用轉換(如MS Oledb provider for ODBC)。而使用直接的Ole DB方式(如MS Oledb provider for sql, Oracle),則不需轉換,從而提高處理速度,同時,還能利用Ole DB的新特性。
3、 在內存中緩存ADO對象或其內容
通常,在ASP程序中,都會涉及到一些存儲在資料庫中的常用信息,如省份列表,商品分類等,這些信息對於每一個訪問用戶都是相同的。若每一個用戶訪問時,都要去資料庫里取出來,然後顯示給用戶,不僅會使資料庫伺服器負載加重,無法快速服務於更重要的事務處理,而且WEB伺服器也必須不停地創建ADO對象,消耗大量資源,導致了當用戶很多時幾乎失去響應。若能把一些常用信息事先存儲在內存中,當用戶訪問時,直接從內存中取出,顯示給用戶,則可以大大減小系統的壓力,提高響應速度。
比如,我們可以把已經取得了數據的RecordSet對象存儲在Application變數中,當用戶訪問時,從Application變數中取得RecordSet對象,而不需再次建立資料庫連接;也可以將RecordSet對象里的數據以其他方式存儲,比如存儲在數組中,然後再將數組存儲在Application變數中,使用時用數組的方式讀取。
需要注意的是,一個對象要存儲在Application變數中,線程模式必須是Both;對於不滿足該條件的對象,必須以其他方式,比如轉換成數組的方式存儲在Application變數中,這也是上面所說的將內容存儲在數組中的原因。
4、 使用數字序列
在Asp程序中,從諸如RecordSet中讀取數據時,為了方便,常使用資料庫列名的方式進行:
Response.write rs(「fieldnameN」)
而很少採用該資料庫列名所在的數字序列來讀取,即:
Response.write rs(N)
其實,為了從RecordSet得到列值,ADO必須將列名轉化為數字序列,因此,若直接使用數字序列,則可以提高讀取速度。若感覺使用數字序列,程序可讀性不直觀,可以採用建立常量的方法,定義:
const FIELDNAME1 1
5、 使用資料庫過程(procere)
在電子商務站點中,尤其是要進行交易的站點,為了完成交易,可能需要多次查詢大量的信息,用於判定是非,然後更新入庫。若在編寫Asp時,直接在一個程序中作多次資料庫操作,不僅IIS要創建很多ADO對象,消耗資源,而且加重了資料庫伺服器的負擔,增大了網路流量。若把多次資料庫操作流程定義為一個資料庫過程,用如下方式調用:
connection.execute 「{call procerename(..)}」
則可以利用資料庫的強大性能,大大減輕Web系統的壓力,而且由於頁面內容與業務分開,管理維護也變得方便。
6、 使用優化過的sql語句
對於電子商務網站,最主要的就是要保證,不論訪問用戶的多少,系統都要有足夠快的響應速度。由於在Asp技術中,ADO對象消耗的資源是非常大的,若一個sql語句要執行很長的一段時間,對整個資源也將一直佔用,使系統沒有足夠的資源服務於其它用戶。因此,盡量使用優化過的sql語句,減少執行時間。比如,不使用在in語句中包含子查詢的語句,充分利用索引。
7、 利用資料庫的特性
ADO是一套通用的對象控制項,本身沒有利用資料庫的任何特性。但若在Asp程序編寫時,有意識地考慮結合資料庫的特性,往往可以有很好的效果。
比如,Oracle資料庫伺服器對於執行過的sql語句,通常都經過了分析優化,並存儲在一個sql內存緩沖區中,當下次同樣的sql語句請求時,直接從內存緩沖區取出執行,不再進行分析優化,從而可以大幅度提高性能。這就要求在Asp程序編寫時,盡量使用相同的Sql語句,或者參數化的Sql語句:
Set cmd=Server.createobject(「adodb.command」)
cmd.CommandText=」select * from proct where proctcode=?」
8、 用時創建,用完釋放
在前面也提到過,ADO對象是非常消耗資源的,因此一定要牢牢記住,只在用到ADO對象時才創建,用完後馬上釋放:
set rs=Server.createobject(「adodb.recordset」)
….
rs.close
set rs=nothing
願您愉快地編程,讓人們享受社會信息化所帶來的好處。
Ⅱ 如何利用MySQL設置遠程資料庫以優化站點性能
用於向Web伺服器交付動態內容。在這里我們使用WordPress作為示例,並將在Web伺服器上配置Nginx以接入遠程設備上的MySQL資料庫。在示例中,我們將使用Ubuntu 12.04 VPS實例。
在資料庫伺服器上安裝MySQL
作為起步,我們將把一項VPS實例配置為MySQL伺服器。將數據存儲在獨立計算機上能夠有效防止資源不足,同時也能夠面向未來需求實現負載均衡及設置擴展。
在開始之前,大家需要在資料庫伺服器上安裝一些基礎軟體包。其安裝過程與傳統LEMP堆棧類似,不過這里我們並不需要全部組件(部分組件需要安裝在另一台伺服器上)。
首先更新軟體包緩存並安裝MySQL伺服器:
sudo apt-get update
sudo apt-get install mysql-server
安裝過程中,我們需要選定並確認MySQL的root密碼。
完成後,需要運行資料庫安裝命令以生成管理各組件的對應目錄。
sudo mysql_install_db
接下來,我們需要運行一套腳本以禁用各不安全默認選項:
sudo mysql_secure_installation
接下來輸入之前設定的MySQL管理員密碼,而後選擇「N」保留現有密碼。
對於其它問題,一路回車按下去保留默認即可。
配置MySQL以允許遠程訪問
現在資料庫已經開始運行,接下來變更對應值以接受來自其它計算機的訪問。
以root許可權在編輯器中打開MySQL的主配置文件:
Ⅲ 資料庫設計,調優,存儲過程,觸發器,Job問題 DBA進
太理論的東西我也不一定能說得很清晰
1、一個上億記錄的一般都使用分區表,添加時只要索引不建太多沒什麼影響
2、在大表刪除的時候使用ROWID刪除是最快的
3、ORACLE腳本是沒編譯過了,存儲過程是有編譯過的,但要是用的頻率不高,編譯與沒編譯差距不大
4、開發經驗就是做ORACLE項目經驗
5、觸發器會很大程度上影響性能,存儲過程沒什麼影響,兩者都只是幾行代碼
6、性能優化最多是SQL優化、資料庫軟體優化、伺服器優化
7、觸發器什麼上網路
8、我覺得你應該找些SQL入門的書來看
Ⅳ 性能測試中懂腳本會調優是什麼意思
可以委託第三方做調優啊,我們公司是委託精靈雲測做的性能。
Ⅳ 為什麼要優化資料庫 ORACLE資料庫為什麼要做優化
當數據多到一定程度的時候,資料庫的性能就會開始變慢了,適當的優化提高資料庫的查詢和訪問效率
Ⅵ 一直想深入學習資料庫,比如性能優化。不想只會編那些查詢,更新語句。各位大神有什麼好的建議嗎
我和你一樣,主要是沒人指導,都是要自己來,走了很多彎路,准備過完年考個ocp,找份oracle
dba的工作,本人現在在同時學習 mysql和oracle,邊上班打雜 邊學習,從完全不懂linux 到現在源碼configure 安裝mysql 到現在能獨立 安裝mysql集群(用虛擬機)主從復制,腳本備份,會用shell腳本監測數據。不過都在從了解到熟練的過程中,接下來幾天准備研究 sql/索引/schema優化,明天我列印的資料就能到了,主要是高性能mysql第三版(中文)書里的知識。
我比較喜歡mysql,應為他開源,自己能看到裡面的源代碼,雖然我c和c++不是很會,說不定以後為了mysql我也要重新學習 c/c++,不過這應該幾年以後的事了。
喜歡歸喜歡,我經常看招聘要求 前程無憂和智聯招聘上好多招初級的DBA都要求ocp的,雖然很貴,今年就是因為沒錢才拖到明年了。希望考下來能有個敲門磚,當然我不會去被題目過,要逼自己學的扎實,雖然想是這么想,不知道 到時候學起來會怎麼樣,盡管我有點基礎。我大學還考過了軟考的資料庫系統工程師。
最後想說的是憑我個人感覺,畢竟接觸了這么多的資料,信息。英語應該會很重要,我也在利用oracle concepts 中英問對照版 學習英語,平時也會偷懶,但自己也沒放棄,相信慢慢會進步的,每天坐公交上下班也利用手機有道詞典被平時遇到不會的單詞。
有時候自己迷茫的時候也是多想找個前輩指導指導,現實是這些只能靠自己了,彎路就彎路吧,總比停滯不前的好。
你也加油!
Ⅶ 如何設置使oracle10g性能最優 性能調優 步驟
一、 磁碟方面調優
1. 規范磁碟陣列
RAID 10比RAID5更適用於OLTP系統,RAID10先鏡像磁碟,再對其進行分段,由於對數據的小規模訪問會比較頻繁,所以對OLTP適用。而RAID5,優勢在於能夠充分利用磁碟空間,並且減少陣列的總成本。但是由於陣列發出一個寫入請求時,必須改變磁碟上已修改的塊,需要從磁碟上讀取「奇偶校驗」塊,並且使用已修改的塊計算新的奇偶校驗塊,然後把數據寫入磁碟,且會限制吞吐量。對性能有所影響,RAID5適用於OLAP系統。
2. 數據文件分布
分離下面的東西,避免磁碟競爭
Ø SYSTEM表空間
Ø TEMPORARY表空間
Ø UNDO表空間
Ø 聯機重做日誌(放在最快的磁碟上)
Ø 操作系統磁碟
Ø ORACLE安裝目錄
Ø 經常被訪問的數據文件
Ø 索引表空間
Ø 歸檔區域(應該總是與將要恢復的數據分離)
例:
² /: System
² /u01: Oracle Software
² /u02: Temporary tablespace, Control file1
² /u03: Undo Segments, Control file2
² /u04: Redo logs, Archive logs, Control file4
² /u05: System, SYSAUX tablespaces
² /u06: Data1 ,control file3
² /u07: Index tablespace
² /u08: Data2
通過下列語句查詢確定IO問題
select name ,phyrds,phywrts,readtim,writetim
from v$filestat a,v$datafile b
where a.file#=b.file# order by readtim desc;
3. 增大日誌文件
u 增大日誌文件的大小,從而增加處理大型INSERT,DELETE,UPDATE操作的比例
查詢日誌文件狀態
select a.member,b.* from v$logfile a,v$log b where a.GROUP#=b.GROUP#
查詢日誌切換時間
select b.RECID,to_char(b.FIRST_TIME,'yyyy-mm-dd hh24:mi:ss') start_time,a.RECID,to_char(a.FIRST_TIME,'yyyy-mm-dd hh24:mi:ss') end_time,round(((a.FIRST_TIME-b.FIRST_TIME)*25)*60,2) minutes
from v$log_history a ,v$log_history b
where a.RECID=b.RECID+1
order by a.FIRST_TIME desc
增大日誌文件大小,以及對每組增加日誌文件(一個主文件、一個多路利用文件)
u 增大LOG_CHECKPOINT_INTERVAL參數,現已不提倡使用它
如果低於每半小時切換一次日誌,就增大聯機重做日誌大小。如果處理大型批處理任務時頻繁進行切換,就增大聯機重做日誌數目。
alter database add logfile member 『/log.ora』 to group 1;
alter database drop logfile member 『/log.ora』;
4. UNDO表空間
修改三個初始參數:
UNDO_MANAGEMENT=AUTO
UNDO_TABLESPACE=CLOUDSEA_UNDO
UNDO_RETENTION=<#of minutes>
5. 不要在系統表空間中執行排序
二、 初始化參數調優
32位的定址最大支持應該是2的32次方,就是4G大小。但實際中32位系統(XP,windows2003等MS32位系統, ubuntu等linux32 位系統)要能利用4G內存,都是採用內存重映射技術。需要主板及系統的支持。如果關閉主板BIOS的重映射功能,系統將不能利用4G內存,可能只達3.5G.而在windows下看到的一般為3.25G。所以SGA設置為內存的40%,但不能超過3.25G
1. 重要初始化參數
l SGA_MAX_SIZE
l SGA_TARGET
l PGA_AGGREGATE_TARGET
l DB_CACHE_SIZE
l SHARED_POOL_SIZE
2. 調整DB_CACHE_SIZE來提高性能
它設定了用來存儲和處理內存中數據的SGA區域大小,從內存中取數據比磁碟快10000倍以上
根據以下查詢出數據緩存命中率
select sum(decode(name,'physical reads',value,0)) phys,
sum(decode(name,'db block gets',value,0)) gets,
sum(decode(name,'consistent gets',value,0)) con_gets,
(1- (sum(decode(name,'physical reads',value,0))/(sum(decode(name,'db block gets',value,0))+sum(decode(name,'consistent gets',value,0)) ) ))*100 Hitratio
from v$sysstat;
一個事務處理程序應該保證得到95%以上的命中率,命中率從90%提高到98%可能會提高500%的性能,ORACLE正在通過CPU或服務時間與等待時間來分析系統性能,不太重視命中率,不過現在的庫緩存和字典緩存仍將命中率作為基本的調整方法。
在調整DB_CACHE_SIZE時使用V$DB_CACHE_ADVICE
select size_for_estimate, estd_physical_read_factor, estd_physical_reads
from v$db_cache_advice
where name = 'DEFAULT';
如果查詢的命中率過低,說明缺少索引或者索引受到限制,通過V$SQLAREA視圖查詢執行緩慢的SQL
3. 設定DB_BLOCK_SIZE來反映數據讀取量大小
OLTP一般8K
OLAP一般16K或者32K
4. 調整SHARED_POOL_SIZE以優化性能
正確地調整此參數可以同等可能地共享SQL語句,使得在內存中便能找到使用過的SQL語句。為了減少硬解析次數,優化對共享SQL區域的使用,需盡量使用存儲過程、使用綁定變數
保證數據字典緩存命中率在95%以上
select ((1- sum(getmisses)/(sum(gets)+sum(getmisses)))*100) hitratio
from v$rowcache
where gets+getmisses <>0;
如果命中率小於 99%,就可以考慮增加shared pool 以提高library cache 的命中率
SELECT SUM(PINS) "EXECUTIONS",SUM(RELOADS) "CACHE MISSES WHILE EXECUTING",1 - SUM(RELOADS)/SUM(PINS)
FROM V$LIBRARYCACHE;
通常規則是把它定為DB_CACHE_SIZE大小的50%-150%,在使用了大量存儲過程或程序包,但只有有限內存的系統里,最後分配為150%。在沒有使用存儲過程但大量分配內存給DB_CACHE_SIZE的系統里,這個參數應該為10%-20%
5. 調整PGA_AGGREGATE_TARGET以優化對內存的應用
u OLTP :totalmemory*80%*20%
u DSS: totalmemory*80%*50%
6. 25個重要初始化參數
² DB_CACHE_SIZE:分配給數據緩存的初始化內存
² SGA_TARGET:使用了自動內存管理,則設置此參數。設置為0可禁用它
² PGA_AGGREGATE_TARGET:所有用戶PGA軟內存最大值
² SHARED_POOL_SIZE:分配給數據字典、SQL和PL/SQL的內存
² SGA_MAX_SIZE:SGA可動態增長的最大內存
² OPTIMIZER_MODE:
² CURSOR_SHARING:把字面SQL轉換成帶綁定變更的SQL,可減少硬解析開銷
² OPTIMIZER_INDEX_COST_ADJ:索引掃描成本和全表掃描成本進行調整,設定在1-10間會強制頻繁地使用索引,保證索引可用性
² QUERY_REWRITE_ENABLED:用於啟用具體化視圖和基於函數的索引功能
² DB_FILE_MULTIBLOCK_READ_COUNT:對於全表掃描,為了更有效執行IO,此參數可在一次IO中讀取多個塊
² LOG_BUFFER:為內存中沒有提交的事務分配緩沖區(非動態參數)
² DB_KEEP_CACHE_SIZE:分配給KEEP池或者額外數據緩存的內存
² DB_RECYCLE_CACHE_SIZE:
² DBWR_IO_SLAVES:如果沒有非同步IO,參數等同於DB_WRITER_PROCESSES模擬非同步IO而分配的從SGA到磁碟的寫入器數。如果有非同步IO,則使用DB_WRITER_PROCESSES設置多個寫程序,在DBWR期間更快地寫出臟塊
² LARGE_POOL_SIZE:分配給大型PLSQL或其他一些很少使用的ORACLE選項LARGET池的總塊數
² STATISTICS_LEVEL:啟用顧問信息,並可選擇提供更多OS統計信息來改進優化器決策。默認:TYPICAL
² JAVA_POOL_SIZE:為JVM使用的JAVA存儲過程所分配的內存
² JAVA_MAX_SESSIONSPACE_SIZE:跟蹤JAVA類的用戶會話狀態所用內存上限
² MAX_SHARED_SERVERS:當使用共享伺服器時的共享伺服器上限
² WORKAREA_SIZE_POLICY:啟用PGA大小自動管理
² FAST_START_MTTR_TARGET:完成一次崩潰恢復的大概時間/S
² LOG_CHECKPOINT_INTERVAL:檢查點頻率
² OPEN_CURSORS:指定了保存用戶語句的專用區域大小,如此設置過高會導致ORA-4031
² DB_BLOCK_SIZE:資料庫默認塊大小
² OPTIMIZER_DYNAMIC_SAMPLING:控制動態抽樣查詢讀取的塊數量,對正在使用全局臨時表的系統非常有用
三、 SQL調優1. 使用提示
1.1 改變執行路徑
通過OPTIMIZER_MODE參數指定優化器使用方法,默認ALL_ROWS
Ø ALL_ROWS 可得最佳吞吐量執行查詢所有行
Ø FIRST_ROWS(n) 可使優化器最快檢索出第一行:
select /*+ FIRST_ROWS(1) */ store_id,… from tbl_store
1.2 使用訪問方法提示
允許開發人員改變訪問的實際查詢方式,經常使用INDEX提示
Ø CLUSTER 強制使用集群
Ø FULL
Ø HASH
Ø INDEX 語法:/*+ INDEX (TABLE INDEX1,INDEX2….) */ COLUMN 1,….
當不指定任何INDEX時,優化器會選擇最佳的索引
SELECT /*+ INDEX */ STORE_ID FROM TBL_STORE
Ø INDEX_ASC 8I開始默認是升序,所以與INDEX同效
Ø INDEX_DESC
Ø INDEX_COMBINE 用來指定多個點陣圖索引,而不是選擇其中最好的索引
Ø INDEX_JOIN 只需訪問這些索引,節省了重新檢索表的時間
Ø INDEX_FFS 執行一次索引的快速全局掃描,只處理索引,不訪問具體表
Ø INDEX_SS
Ø INDEX_SSX_ASC
Ø INDEX_SS_DESC
Ø NO_INDEX
Ø NO_INDEX_FFS
Ø NO_INDEX_SS
1.3 使用查詢轉換提示
對於數據倉庫非常有幫助
Ø FACT
Ø MERGE
Ø NO_EXPAND 語法:/*+ NO_EXPAND */ column1,…
保證OR組合起的IN列表不會陷入困境,/*+ FIRST_ROWS NO_EXPAND */
Ø NO_FACT
Ø NO_MERGE
Ø NO_QUERY_TRANSFORMATION
Ø NO_REWRITE
Ø NO_STAR_TRANSFORMATION
Ø NO_UNSET
Ø REWRITE
Ø STAR_TRANSFORMATION
Ø UNSET
Ø USE_CONCAT
1.4 使用連接操作提示
顯示如何將連接表中的數據合並在一起,可用兩提示直接影響連接順序。LEADING指定連接順序首先使用的表,ORDERED告訴優化器基於FROM子句中的表順序連接這些表,並使用第一個表作為驅動表(最行訪問的表)
ORDERED語法:/*+ ORDERED */ column 1,….
訪問表順序根據FROM後的表順序來
LEADING語法:/*+ LEADING(TABLE1) */ column 1,….
類似於ORDER,指定驅動表
Ø NO_USE_HASH
Ø NO_USE_MERGE
Ø NO_USE_NL
Ø USE_HASH前提足夠的HASH_AREA_SIZE或PGA_AGGREGATE_TARGET
通常可以為較大的結果集提供最佳的響應時間
Ø USE_MERGE
Ø USE_NL 通常可以以最快速度返回一個行
Ø USE_NL_WITH_INDEX
1.5 使用並行執行
Ø NO_PARALLEL
Ø NO_PARALLEL_INDEX
Ø PARALLEL
Ø PARALLEL_INDEX
Ø PQ_DISTRIBUTE
1.6 其他提示
Ø APPEND 不會檢查當前所用塊中是否有剩餘空間,而直接插入到表中,會直接將數據添加到新的塊中。
Ø CACHE 會將全表掃描全部緩存到內存中,這樣可直接在內存中找到數據,不用在磁碟上查詢
Ø CURSOR_SHARING_EXACT
Ø DRIVING_SITE
Ø DYNAMIC_SAMPLING
Ø MODEL_MIN_ANALYSIS
Ø NOAPPEND
Ø NOCACHE
Ø NO_PUSH_PRED
Ø NO_PUSH_SUBQ
Ø NO_PX_JOIN_FILTER
Ø PUSH_PRED
Ø PUSH_SUBQ 強制先執行子查詢,當子查詢很快返回少量行時,這些行可以用於限制外部查詢返回行數,可極大地提高性能
例:select /*+PUSH_SUBQ */ emp.empno,emp.ename
From emp,orders
where emp.deptno=(select deptno from dept where loc=』1』)
Ø PX_JOIN_FILTER
Ø QB_NAME
2. 調整查詢
2.1 在V$SQLAREA中選出最佔用資源的查詢
HASH_VALUE:SQL語句的Hash值。
ADDRESS:SQL語句在SGA中的地址。
PARSING_USER_ID:為語句解析第一條CURSOR的用戶
VERSION_COUNT:語句cursor的數量
KEPT_VERSIONS:
SHARABLE_MEMORY:cursor使用的共享內存總數
PERSISTENT_MEMORY:cursor使用的常駐內存總數
RUNTIME_MEMORY:cursor使用的運行時內存總數。
SQL_TEXT:SQL語句的文本(最大隻能保存該語句的前1000個字元)。
MODULE,ACTION:用了DBMS_APPLICATION_INFO時session解析第一條cursor時信息
SORTS: 語句的排序數
CPU_TIME: 語句被解析和執行的CPU時間
ELAPSED_TIME: 語句被解析和執行的共用時間
PARSE_CALLS: 語句的解析調用(軟、硬)次數
EXECUTIONS: 語句的執行次數
INVALIDATIONS: 語句的cursor失效次數
LOADS: 語句載入(載出)數量
ROWS_PROCESSED: 語句返回的列總數
select b.username,a.DISK_READS,a.EXECUTIONS,a.DISK_READS/decode(a.EXECUTIONS,0,1,a.EXECUTIONS) rds_exec_ratio,a.SQL_TEXT
from v$sqlarea a ,dba_users b
where a.PARSING_USER_ID=b.user_id and a.DISK_READS>100 order by a.DISK_READS desc;
2.2 在V$SQL中選出最佔用資源的查詢
與V$SQLAREA類似
select * from
(select sql_text,rank() over (order by buffer_gets desc) as rank_buffers,to_char(100*ratio_to_report(buffer_gets) over (),'999.99') pct_bufgets from v$sql)
where rank_buffers <11
2.3 確定何時使用索引
² 當查詢條件只需要返回很少的行(受限列)時,則需要建立索引,不同的版本中這個返回要求不同
V5:20% V7:7% V8i,V9i:4% V10g: 5%
查看錶上的索引
select a.table_name,a.index_name,a.column_name,a.column_position,a.table_owner
from dba_ind_columns a
where a.table_owner='CLOUDSEA'
² 修正差的索引,可使用提示來限制很差的索引,如INDEX,FULL提示
² 在SELECT 和WHERE中的列使用索引
如: select name from tbl where no=?
建立索引:create index test on tbl(name,no) tablespace cloudsea_index storage(….)
對於系統中很關鍵的查詢,可以考慮建立此類連接索引
² 在一個表中有多個索引時可能出現麻煩,使用提示INDEX指定使用索引
² 使用索引合並,使用提示INDEX_JOIN
² 基於函數索引,由於使用了函數造成查詢很慢.必須基於成本的優化模式,參數:
QUERY_REWRITE_ENALED=TRUE
QUERY_REWRITE_INTEGRITY=TRUSTED (OR ENFORCED)
create index test on sum(test);
2.4 在內存中緩存表
將常用的相對小的表緩存到內存中,但注意會影響到嵌套循環連接上的驅動表
alter table tablename cache;
2.5 使用EXISTS 與嵌套子查詢 代替IN
SELECT …FROM EMP WHERE DEPT_NO NOT IN (SELECT DEPT_NO FROM DEPT WHERE DEPT_CAT=』A』);
(方法一: 高效)
SELECT ….FROM EMP A,DEPT B WHERE A.DEPT_NO = B.DEPT(+) AND B.DEPT_NO IS NULL AND B.DEPT_CAT(+) = 『A』
(方法二: 最高效)
SELECT ….FROM EMP E WHERE NOT EXISTS (SELECT 『X』 FROM DEPT D WHERE D.DEPT_NO = E.DEPT_NO AND DEPT_CAT = 『A』);
四、 使用STATSPACK和AWR報表調整等待和閂鎖
1. 10GR2里的腳本
在$ORACLE_HOME/RDBMS/ADMIN下
Spcreate.sql 通過調用spcusr.sql spctab.sql 和spcpkg.sql創建STATSPACK環境,使用SYSDBA運行它
Spdrop.sql 調用sptab.sql和spsr.sql刪除整個STATSPACK環境,使用SYSDBA運行它
Spreport.sql 這是生成報表的主要腳本,由PERFSTAT用戶運行
Sprepins.sql 為指定的資料庫和實例生成實例報表
Sprepsql.sql 為指定的SQL散列值生成SQL報表
Sprsqins.sql 為指定的資料庫和實例生成SQL報表
Spauto.sql 使用DBMS_JOB自動進行統計數據收集(照相)
Sprepcon.sql 配置SQLPLUS變數來設置像閾值這樣的內容的配置文件
Spurge.sql 刪除給定資料庫實例一定范圍內的快照ID,不刪除基線快照
Sptrunc.sql 截短STATSPACK表裡所有性能數據
五、 執行快速系統檢查1. 緩沖區命中率
查詢緩沖區命中率
select (1 - (sum(decode(name, 'physical reads',value,0)) /
(sum(decode(name, 'db block gets',value,0)) +
sum(decode(name, 'consistent gets',value,0))))) * 100 "Hit Ratio"
from v$sysstat;
Ⅷ oracle sql性能優化需注意哪些
1,sql的寫法,有很多資料,不一一列舉
比如 >= , <= 在一起的時候,直接用between and 等等。。。
2,加index
Ⅸ 如何優化wordpress資料庫
WordPress系統使用時間長了,資料庫中的冗餘數據就會很多,定期優化和清理Wordpress的資料庫,可以保證Wordpress能夠快速工作。
首先,停用一些無用的插件,將WordPress系統表之外的數據表都刪除,只保留wp_posts, wp_comments, wp_terms, wp_term_relationships, wp_term_taxonomy 等系統數據表。
其次,打開phpMyadmin,通過SQL語句進行冗餘數據刪除操作。刪除前記得先備份一下。
刪除腳本是:
DELETE FROM wp_posts WHERE post_type = 'revision';
DELETE FROM wp_postmeta WHERE meta_key = '_edit_lock';
DELETE FROM wp_postmeta WHERE meta_key = '_edit_last';
最後,在phpMyAdmin中,選中所有表,點「優化表」。
經過這一番優化操作,就可以將WordPress資料庫中的冗餘數據刪除,優化了資料庫的性能。