當前位置:首頁 » 服務存儲 » 存儲情況分析
擴展閱讀
webinf下怎麼引入js 2023-08-31 21:54:13
堡壘機怎麼打開web 2023-08-31 21:54:11

存儲情況分析

發布時間: 2022-08-01 02:00:17

A. FC SAN存儲技術分析:如何解決存儲問題

這意味著,一半以上的存儲基礎設施都採用了基於數據塊的 DAS 和 NAS 外存貯器技術。人們經常問,是否可用作為現有存儲投資的補充來部署光纖通道,以構建真正的異構存儲元件集合。
答案是肯定的,我們將在下面討論幾個相關的案例分析。
案例分析 1:由 Ultra320 SCSI、ATA、SATA 等組成的、完全基於 DAS 的基礎設施
在這個案例中,存儲設備是在幾年內分批采購的,現在有數十、甚至數百台計算機 - 數十個、甚至數百個存儲設備「容器」。每個節點的容量可能有很大差別,而且利用率的差別也很大 - 這是個大問題。但是,從許多層次上看,通過一次性采購來升級到 SAN、購買所有新的存儲設備並將現有存儲設備遷移到新卷的方式並不具吸引力。首先,執行數據復制過程需要很多的人力和 IT 資源,成本很高,而且不可避免地會出現員工生產效率喪失的階段。其次,如果現有 DAS 存儲設備過早報廢也會造成很大的資本帳面損失。
解決方案 1:虛擬化
現在市場上有許多軟體虛擬化產品可供選擇,使您可以將現有 DAS 基礎設施連接到 SAN。例如,FalconStor 推出了 IPSTOR 產品,它允許公司把現有 DAS 存儲連接到該設備的後面,從而使得原有的存儲設備可在光纖通道網路上使用。所有數據都在原處保存,不要求執行復制或遷移。而且,原有節點還能夠配備 2Gb 光纖通道主機適配器。採用 SAN 的優勢在於投資保護,可在原有存儲基礎設施上簡便地共享、開展和構建多種功能。利用可隨需求增長的 SAN,您可以引入新的本地光纖通道存儲設備和光纖通道交換機,在計算機間高效地共享可用存儲容量。因此,部署的異構系統可同時支持 DAS 和 SAN 組件。
案例分析 2:有網路設備組成的、主要基於 NAS 的基礎設施
用戶可能會感到驚訝,NAS 設備可將光纖通道等數據塊存儲設備轉變為在乙太網上顯示的「文件視圖」。連接到 NAS 的用戶可以看到文件夾和文件,甚至可能不知道外存貯器使用了光纖通道。問題是,許多應用程序(例如 Microsoft Exchangereg;)在允許直接與光纖通道數據塊存儲設備通信時表現的性能更好;這是因為,他們能夠避免與乙太網和 TCP/IP 文件處理相關的開銷。(這是一種廣義上的概念, NAS 緩沖的大小仍然對順序數據讀寫和隨機數據讀寫的應用產生影響)。如同其他數據塊技術(Ultra320 SCSI 和串列SCSI -SAS),光纖通道的時延也非常低。
解決方案 2:在 外存貯器上增加光線通道數據塊訪問功能
為了適應優化用來利用數據塊存儲設備的應用程序,用戶可以在 NAS 設備上添加光纖通道目標介面。這個過程涉及到在以目標模式運行的 外存貯器中插入經過認可的光纖通道 HBA (主機匯流排適配器)。這樣允許在 SAN 中通告一個或多個 LUN。然後,在每個希望訪問這些 LUN(LUN,邏輯單元號, Logic Unit Number) 的計算機上安裝單獨的光線通道 HBA。最後,使用設備提供的管理 GUI,用戶可向每個 LUN 分配 外存貯器的剩餘容量。因此,部署的異構系統可同時支持文件和數據塊級的數據訪問。
案例分析 3:光纖通道存儲設備「機架」太昂貴、不適於融合近線存儲應用
許多 IT 機構的企業環境中都會積累數以千 G 的數據,幾乎不可能在工作日之間的夜晚八個小時內完全備份到磁帶中。市場上有許多磁帶虛擬化產品,如 EMC 的 CDL (CLARiiON 磁碟庫)和 Neartek 的 Virtual Storage Engine (VSE2),他們可將基於 RAID 的磁碟設備轉變為許可磁帶設備,而且還可能具有很高的寫入性能。各種應用以為它們在與磁帶外設進行數據通訊,但實際上數據被寫入了 RAID 設備中。這些 RAID 設備的速度允許 IT 管理員在指定的夜間時段內輕松地完全備份數據。此後,在第二天的工作過程中,可進行真正的磁帶備份,而且還不會影響到 SAN 的性能。問題是,本機光纖通道磁碟驅動器價格昂貴,不適用於這種「近線性存儲」應用。
解決方案 3:使用 SAS/SATA 磁碟驅動器的光纖通道存儲 JBOD
許多廠商都在推出內部使用 SAS/SATA 硬碟驅動器的光線通道 JBOD 機架。JBOD 無論採用哪種驅動器都能很好地工作。如果應用要求冗餘埠、高 I/O 性能和最高的 平均無故障時間 等級時,用戶可以選擇更加可靠(也更昂貴)的 SAS 驅動器。對於近線性存儲應用,用戶可以選擇使用不太昂貴的大容量 (300GB) SATA 驅動器。SATA 技術適用於大數據塊、低 I/O 工作負載的近線性存儲設備,適合與光纖通道「前端」連接集成。
案例分析 4:大量光纖通道存儲設備採用物理距離很遠的伺服器
盡管光纖通道能夠支持超過 10km 的光纜,但這經常不切實際,或者距離甚至會超出光線通道的適應能力。在這些情況下,企業往往會發現,無法在企業數據中心和工作現場的伺服器間建立連接,使得伺服器無法聯網。
解決方案 4:ISCSI 和 FCIP 橋接產品
現在,供應商提供了一些新產品,允許不能聯網的伺服器以某種方式訪問光線通道 SAN。第一種方式,採用 FCIP 或 iFCP;這些隧道技術允許在 SAN 間建立 廣域網 距離的鏈路。例如,從技術角度講,乙太網被用來通過隧道將光纖通道從一側的 SAN 連接到另一側的 SAN。McData 推出了幾種具備這種能力的新型交換機產品。第二種方法是以網橋的方式使用 iSCSI。光線通道 SAN 上的額外的存儲容量作為在乙太網網路上被聲明為iSCSI的LUN。遠程位置的伺服器能夠通過基於硬體的 iSCSI 適配器或基於軟體的 iSCSI 驅動程序訪問 iSCSI LUN。有免費的 iSCSI 驅動程序可用於 Windowsreg; 和 Linux 操作系統。這些驅動程序利用遠程伺服器上已有的乙太網連接。盡管用戶可以選擇購買 1Gb iSCSI HBA,但他們必須考慮到許多遠程辦公室只有 T1 和部分 T1 WAN 連接,而不可能進行持續的 1Gb 傳輸。現在,McData 和 Maranti Networks 等許多公司都在銷售具備光纖通道到 iSCSI 橋接功能的光線通道交換設備。值得一提的是,有些網路設備現在也可以提供 iSCSI LUN 功能。
作為一項技術,FC在海量存儲方面有著極強的優勢:簡化的管理、更好的空間利用、更短的反應時間和高帶寬。在過去十年中,FC在提高協同性、降低復雜性和減少成本方面等方面有了巨大的改進。這些改進已使FC超越企業級數據中心的應用,進入中小企業領域。上面一系列的例子旨在證明,在現實情況下,光線通道、NAN 和 DAS 的混合部署能夠為用戶帶來很大的利益。

B. 如何對需求進行數據訪問和存儲方面的挖掘和數據分析

通過平台建立可以隨時查看各網點的狀態,比如存取款數據分析、考核報表,還可以做客戶分析,企業的存貸款,大額用戶的存貸款,以及一些預報警功能,如果某些數據低過設定閥值系統將會報警通知相關人員。
針對不良貸款額以及不良貸款率,各網點盈利情況、賬面情況等等都可以進行監控和報表展現。

永洪科技的大數據產品在和銀行類的用戶合作中表現還是很不錯的。

C. 存儲虛擬化的問題

據統計,存儲數據量的年增長率達50%~60%。面對新的應用,以及不斷增加的存儲容量,企業用戶需要借用虛擬技術來降低管理的復雜性,提高效率。但是隨著存儲技術的發展,用戶對於數據的需求增加,為什麼虛擬存儲技術沒有完全普及呢?這還要從虛擬存儲技術面臨的困難說起。
目前,企業用戶面臨的最大壓力是什麼?一是存儲數據的成本在不斷地增加;二是數據存儲容量爆炸性增長;三是越來越復雜的環境使得存儲的數據無法管理。周所周知,虛擬化有三種方式實現,基於伺服器、基於存儲以及基於網路。基於存儲的虛擬化手段,目的就是面向用戶的應用進行優化。存儲虛擬化首先要解決的難題就是異構平台的數據管理問題。存儲虛擬化可以把用戶不同的存儲系統融合成單一的平台,解決數據管理難題,並通過分級存儲實現信息的生命周期管理,從而進一步優化應用環境。
虛擬存儲技術最受關注的問題是數據安全問題。因為虛擬存儲把所有數據都放在了一個系統環境下,這就相當於把雞蛋都放在一個籃子里,一旦打翻,所有雞蛋都會損失。所以一旦數據被存放進虛擬存儲環境中,就不能被輕易刪除。這無疑加大了數據的風險,在安全投資上也要相應加大。
虛擬存儲的第二個問題在於忽視了我國龐大的中小企業需求。目前的虛擬存儲技術大部分都是專注於高端用戶的,這些用戶存儲系統龐大,不僅設備多,所採用的軟體也很復雜,在這種情況下,虛擬存儲技術可以帶來管理,成本上的諸多優勢。但是目前我國中小企業已經成為企業市場的主力軍,不針對中小企業用戶的需求推廣虛擬存儲技術,使該技術的發展變得緩慢了。
阻礙存儲虛擬化產品的因素還有一個就是價格,這也正是由於專注於高端市場帶來的弊端。對於多數的中小企業用戶面臨存儲空間不足,直接買大容量硬碟來解決存儲上的問題,即使在存儲空間上有所浪費,但相比使用虛擬化存儲架構,大容量的硬碟還是比較合算,此外中小企業存儲系統不復雜,管理起來也沒有太大難度,這些都導致虛擬存儲技術在普及上存在著一定的困難。
一款存儲虛擬化產品只能對有限的存儲空間起作用。擴展性和性能哪個更為重要,要根據實際的情況來分析。在部署產品之前要進行系統測試。在剛部署完成的初期,擴展性問題也許不會顯現出來。因此提前對擴展性進行評估可以幫助用戶選擇正確的產品。
基於陣列的存儲虛擬化產品只是對自己廠家的產品有效。基於主機或者光纖的存儲虛擬化產品也是對某些特定廠家的軟體或者設備有效。用戶需要檢查存儲虛擬化產品是否跟自己當前的存儲環境兼容。
綜上所述,虛擬存儲技術不僅在存儲廠商是熱門話題,而且在用戶中對於存儲虛擬化技術呼聲越來越高,隨著人們對於數據安全性、完整性的要求提高,存儲系統已經成為IT應用中的重要環節,存儲系統的復雜化,存儲系統的管理也成為難點,相信在不久的將來虛擬存儲技術在克服了面臨的困難後,會給企業用戶存儲系統的效率的提高,系統安全穩定的運行,減少總體擁有成本,增加投資回報等方面有效的實現。

D. 高分求助SQL存儲過程詳細分析,最好每句解釋一下

ALTER procere [dbo].[wvsp_updateTaskStatus]
@ttype int,
@id int,
@status int // 這一段主要是定義存儲過程需要的參數
as
begin 開始存儲過程
if @ttype=0 // 開始判斷 如果傳進來的@ttype=0
begin //開始執行
if (@status=3) //如果(@status=3)
begin //開始執行函數
insert into tb_queuelog([type],mid,code,otherparams,created) //往表名為tb_queuelog的表插入數據,以上為要插入的欄位
select @ttype,mid,code,otherparams,created
from tb_mergequeue
where id=@id //要插入欄位的數據從表tb_mergequeue 搜索出來,與上表要插入的欄位一一對應,搜索條件為:id=@id

delete from tb_mergequeue
where id=@id //刪除tb_mergequeue表中where id=@id的欄位
end //結束@status=3條件循環
else//如果(@status不等於3,進入另一個方法
update tb_mergequeue
set status=@status
where id=@id //更新tb_mergequeue的數據

end //結束(@status不等於3的條件循環
else if(@ttype=1) //如果 (@ttype=1 -- 頁面同步任務
begin開始
if (@status=3)
begin
insert into tb_queuelog([type],mid,code,otherparams,created)
select @ttype,mid,code,otherparams,created
from tb_syncqueue
where id=@id

delete from tb_syncqueue
where id=@id
end
else
update tb_syncqueue
set status=@status
where id=@id
end

select @@rowcount //取得記錄總數
end 結束存儲過程

E. 如何進行存儲系統的性能測試

要解決問題,首先要明確准備將測試結果精確到什麼程度:
只是獲得一個初步的結果;
分析未來的發展動向;
准備搜集盡可能多的數據;
進行存儲性能分析不僅僅是收集數據那麼簡單。採集數據只是一方面,另外,需要分析數據。可以用現有的SRM(存儲資源管理)工具來採集數據。如果沒有這種系統,可以僱用顧問公司來解決這個問題(顧問公司還可以同時進行數據分析)。
幾個SRM系統能夠工作,比如SUN公司的StorEdge Suite,IBM公司也集成了Trellisoft SRM系統,這兩個系統都能在開源環境中工作。然而,這些系統都有至少5個許可證書,如果要在自己的系統中採用它們,就需要獲得相應許可。
如果只想測試系統性能,不需要執行整個SRM系統,最好的選擇是獲得外部的幫助(比如僱用顧問公司)。
如果打算採用別的軟體來完成採集數據的工作,那麼需要注意如下幾點:
執行軟體前,需要配置好對應的管理框架
軟體不一定支持所有的操作環境(Windows, Linux, Solaris, Aix)
軟體不支持資料庫
測試代理性能時需要重啟已經安裝過的伺服器
除了少數幾個操作系統,軟體代理大部分情況下無法進行遠程操作(設想一下,可能需要手動安裝上百個代理軟體)

F. 存儲系統分析 存儲區域網瓶頸到底在哪裡

存儲網路系統由存儲設備、網路設備和主機三個部分組成。存儲設備是指該系統中採用的NAS、ISCSI、FC-SAN等磁碟陣列設備,網路設備是指FC交換機或乙太網交換機,主機是指安裝了乙太網卡、FC HBA卡,並安裝了一定應用軟體的主機設備。存儲系統的瓶頸分析主要是看這三個部分中哪一種會首先達到其性能的最大值。 存儲成為整個系統的瓶頸是指存儲設備的帶寬達到最大值,或IOPS達到最大值,存儲設備限制了系統性能的進一步提升,甚至影響了整個系統的正常運行。由於不同業務系統對存儲的性能要求不同,一般小文件(小於1MB)讀寫型的系統中對IO的要求較高,大文件的讀寫型系統對存儲設備帶寬的要求比較高。不用應用模式下系統對存儲設備的要求不同,瓶頸點出現的位置和特點也不一樣。 應用模式1: 小型網站系統,應用大多集中於遠程用戶對WEB頁面訪問,網站內部為WEB伺服器和資料庫之間的讀寫,應用系統對存儲的壓力非常小,差不多所有類型、所有檔次的存儲設備都可以作為核心存儲,存儲設備的帶寬和IOPS很難會達到極限。在這樣的系統中,與存儲設備連接的網路設備一般都千兆乙太網交換機,交換機本身的交換能力大多都是10Gb,只有接入網部分的可用帶寬較小,一般只有100Mb/s左右的接入帶寬,因此接入網最有可能成為存儲網路的瓶頸。 應用模式2: 如果該網站是一個大型的網路視頻系統,支持大量用戶在線進行視頻節目播放和下載,這種類型的網站前端接入網一般都在2Gb/s以上。此時要分析瓶頸位置,首先要比較接入網帶寬和存儲帶寬,同時還要比較在線用戶的最大IO訪問量和存儲設備的IOPS值。一般來講,由於NAS設備的帶寬和IOPS相對較小,因此NAS比ISCSI和FC-SAN設備更容易成為系統的瓶頸,而ISCSI和FC-SAN較難成為瓶頸。如果存儲設備採用NAS,則存儲系統成為瓶頸的機率大於接入網,如果存儲設備採用FC-SAN,則存儲系統成為瓶頸的機率小於接入網。 瓶頸還經常會出現在負責節目播放和下載功能的視頻伺服器處。如果視頻伺服器配置的數量不足,或視頻伺服器之間無法正常地實現自動地網路負載均衡,那麼整個系統的性能壓力瓶頸就會出現在視頻伺服器,使用整個視頻網站無法給遠程用戶提供流暢的節目畫面。 應用模式3: 資料庫系統,資料庫系統的存儲應用一般都表現為大量的IO訪問,對帶寬要求較低。如果存儲設備的IOPS較小時,會降低資料庫的檢索和查尋速度,從來影響整個業務的效率。因此建議資料庫系統採用IOPS(可按業務規模、工作站數量、每秒的讀寫訪問次數和估算)比較大的FC-SAN設備,不建議採用IOPS相對較小的NAS或ISCSI設備。大型資料庫存儲最好能採用15000RPM的高速FC磁碟,這樣才能將資料庫伺服器成為整個系統的壓力瓶頸。由於SATA硬碟在隨機IO讀寫時的性能不佳,因此存儲設備不建議採用SATA磁碟,否則存儲設備極有可能資料庫系統的IOPS瓶頸。 應用模式4: 非線性編輯製作系統。在非線性編輯製作網路中,所有工作站共享式地訪問核心存儲系統,每台工作站同時以50-200Mb/S的恆定碼率訪問存儲設備。業務系統對帶寬的壓力非常,而IOPS壓力較小。 存儲設備的總可用帶寬越大,存儲設備就能支持更多數量的編輯製作工作站,網路的規模就越大,網路系統所能承擔的業務就越重要。因此編輯製作網的存儲一般都會選擇主機埠多、特別是磁碟埠多、帶寬大的FC-SAN設備。存儲設備內部設計時,一般會通過增加磁碟數量、增加擴展櫃數量、跨擴展櫃創建RAID組、增加主機通道數量等方式最大限度地利用存儲控制器前端和後端的總可用帶寬,使得磁碟、磁碟通道、主機通道等的總帶寬大於控制器的總帶寬,這樣在工作站訪問時存儲設備時,才能最大地發揮出控制器的帶寬性能。帶寬瓶頸在控制器部位才能說明是最好的存儲系統設計方案。

G. 如何分析單片機存儲空間的使用情況

問題不太明確,簡單說一下吧。
存儲空間分成ROM和RAM。
ROM的情況相對比較簡單,單片機有多大的ROM,寫程序用了多少,一般編譯的時候都會給出匯總情況,如果沒有直接給出,看生成的map文件肯定會有這部分信息。
RAM的使用可以分成靜態分配的動態分配的兩部分。
靜態分配,指靜態變數、全局變數等,比如顯示緩沖區,是在寫程序的時候分配的,編譯的時候也會給出匯總,或者也可以看map文件。
動態分配的又可以分成堆、棧兩種情況,注意,堆和棧實際上是兩種完全不同的內存管理結構。
堆是由編程人員通過編程式控制制的,通過malloc和free來申請和釋放的,用多少全由程序員說了算。
最後說棧,這個是最復雜的。局部變數一般是在棧上分配的,少量局部變數可能會放在寄存器上,做為寄存器變數,但大部分的局部變數是放在棧上的。具體棧空間的使用情況,取決於子程序之間的調用。如果子程序嵌套的層數少,則棧的空間可能就用的少,層數多,則用的空間可能就多。這里之所以說可能多可能少,是因為這只是種可能,是因為棧空間的使用很難預計准確。

結論,存儲空間的使用情況,棧的使用是最難預計的,也是最容易出問題的。

H. 關於IBM、HP等中低端存儲詳細綜合分析報告。

中產階級的品質可以反映出一個國家的發展前景,而中端存儲就是外部磁碟存儲市場的中產階級,不僅起著承上啟下的作用,也是整個市場狀況的晴雨表。

Gartner和IDC在3月初公布的2005年外部磁碟存儲市場調查報告都得出了全年收入增長達兩位數(11.2%和12.1%)的結論,其中中端存儲系統的貢獻最大:

在過去兩年中,按季度計算的收入增長率(與一年前同期相比),EMC的CLARiiON家族除2005年第三季度為20%,其餘11個季度都超過了30%!尤其在Symmetrix DMX-3推出之前,是CLARiiON的出色表現彌補了高端存儲系統相對低迷造成的損失;

惠普(HP)2005年第四季度和全年的收入增長均略低於市場平均水平,但EVA中端存儲陣列的「強勢」增長和高端XP系列的增長幫助其保住了第二的位置;

2005年全年IBM收入增長在25%左右,第四季度的增長率更接近50%,而中端存儲系統收入在4Gb/s的TotalStorage DS4800的推動下增長超過40%;

以中端存儲為主的戴爾(Dell)全年增長約40%,第四季度更接近60%;

Network Appliance(NetApp)第四季度和全年的收入增長均在23%左右,在FAS3000系列的推動下超越Sun排名第六……

可是,上述廠商能否代表整個市場呢?當然!根據Gartner的統計,加上HDS(日立存儲系統)和Sun,前七大廠商在2005年第四季度和全年所佔的市場份額分別為83.5%和81.6%,比一年前的75.8%和77.8%有所上升。由此可見,大型廠商對存儲行業的控制是相當……的強。

從上面的分析可以看到,把中端存儲系統的研究范圍圈定在EMC、惠普、IBM、HDS、戴爾、NetApp和Sun這前七大存儲系統廠商的相應產品中應該具有足夠的代表性。不過,我們下面只列舉了其中六家的產品,因為戴爾的中端存儲系統OEM自EMC。事實上,EMC CLARiiON家族的驕人業績便有戴爾一份功勞。

如何界定中端存儲系統?

在中端存儲系統的界定上,我們主要參考各廠商自己的定義:部分廠商對自己的產品有明確的分類——IBM和HP用「Mid-range」,Sun用「Midrange」,一目瞭然;其他廠商雖然沒有寫得這么直白,但每個系列產品的定位大家也都是很清楚的。不同廠商的中端存儲系統在配置上會有高下之分,不過並不足以形成明顯的分野。

嚴格說來,公認的中端存儲系統范圍要更小一些。舉例來說,HDS將TagmaStore NSC55定位在中端存儲系統中的高端,表面看來其最大72TB的容量確實比地道的中端系統TagmaStore AMS500還低,可實際上NSC55與高端的TagmaStore USP有著密切的血緣關系,稱之為入門級的高端存儲系統恐怕更為合適——HDS的兩個OEM客戶HP和Sun就是這么做的。同樣的規則也可以解釋IBM為何要把最大容量只有38.4TB的TotalStorage DS6800劃入企業級(Enterprise,相當於「高端」)存儲系統的行列。

NSC55與DS6800偏小的容量部分歸因於它們僅支持高性能的FC硬碟驅動器(最大300GB),而那些只能使用大容量的SATA/PATA硬碟驅動器(最大500GB)的存儲系統也不能算作中端——如最大容量58TB的StorageTek FlexLine FLX680。最大容量96.7TB的NearStore R200也屬於這類產品,NetApp將它與NearStore虛擬磁帶庫(VTL)一並列為近線存儲(Nearline Storage)是很合理的。

中端存儲系統應該在功能、性能、容量和價格之間取得較好的平衡,並能適應主存儲和近線存儲等多種不同的應用需求。高性能的FC硬碟驅動器傳統上一直是主存儲的首選,但SATA硬碟驅動器的經濟性對非實時交易的數據倉庫、目錄服務、軟體開發和災難恢復系統等性能「夠用就好」的應用具有越來越難以抗拒的吸引力,更不要說非常在意容量和單位價格的二級存儲了,因此同時支持FC和SATA硬碟驅動器已成為中端存儲系統必備的素質。

性能與經濟性不可偏廢

眾所周知,FC(確切地說是FC-AL)和SATA是兩種互不兼容的介面標准,對此最常見的解決方法是同時提供兩種內部介面不同而外部統一為FC連接的磁碟櫃,EMC CLARiiON CX家族和HDS Thunder 9500V系列就是這種做法的代表,我們不妨稱之為磁碟櫃層面的(FC和SATA)混用。

2004年4月,HP宣布聯合希捷(Seagate)推出FATA(Fibre Attached Technology Adapted,光纖連接技術改造)硬碟驅動器,並於當年7月在其EVA 3000/5000中提供了250GB FATA硬碟驅動器的選項。同月,FATA所代表的「低成本、高容量FC介面硬碟驅動器」獲得了FCIA(Fibre Channel Instry Association,光纖通道工業協會)的認可。

FATA硬碟驅動器相當於改用FC介面的SATA硬碟驅動器,從而能夠與傳統的FC硬碟驅動器使用同一種磁碟櫃,用戶可以根據實際需要隨意選擇高性能而昂貴(FC)或大容量且廉價(FATA)的硬碟驅動器,提高了靈活性和任務彈性。與SATA相比,FC介面電路較為復雜,加之產量較小,使得FATA硬碟驅動器的價格要高於SATA硬碟驅動器,不過磁碟櫃的精簡可以大致抵消這一不利因素。此外,EMC Symmetrix DMX-3企業級存儲系統中採用的LC-FC(Low Cost Fibre Channel,低成本FC)硬碟驅動器實質上也等同於FATA,但目前尚不清楚會否應用在下一代CLARiiON產品中。

得益於FC的雙埠特性,FATA(或LC-FC)硬碟驅動器的可靠性略高於SATA硬碟驅動器,不過與「正宗的」FC硬碟驅動器還差得遠,出故障的幾率較大。同時,FATA/SATA硬碟驅動器動輒數百GB的容量和相對緩慢的速度使RAID組重建的時間成倍增加,在此期間出現第二個故障硬碟的風險很高。為了避免由此導致的數據丟失,那些能夠在同一RAID組中有兩個硬碟出故障的情況下保護數據的RAID技術開始受到青睞,如HDS所採用的RAID 6(從RAID 5發展而來)和NetApp獨有的RAID-DP(RAID Double Parity,建立在RAID 4基礎上的雙校驗)。

4GFC和iSCSI:旗鼓相當,沖線在即

4Gb/s FC(4GFC)和iSCSI都是中端存儲系統領域的熱點話題,它們代表了兩個方向——單純提升速度和擴展連接能力。

4GFC從2005年開始升溫,由於從那時起只有對其持保守態度的EMC更新了高端存儲系統(Symmetrix DMX-3),因此中端存儲系統理所當然地成為4GFC發展的主戰場。

2005年6月IBM率先以TotalStorage DS4800響應4GFC,HDS TagmaStore AMS系列隨後跟進,HP StorageWorks EVA4000/6000/8000也在半年之後加入行列。EMC雖然升級了CLARiiON CX300/500/700,卻沒有4GFC什麼事,理由是整個大環境還沒有成熟。

現在支持4GFC的HBA和交換機已不難獲得,問題在於硬碟驅動器還沒有到位,甚至AMS系列和EVA4000/6000/8000的後端磁碟介面也還停留在2Gb/s FC(2GFC),只有DS4800剛剛用上支持4GFC的磁碟櫃。

當然,在設計得當的情況下只有主機端連接達到4Gb/s的速度一樣可以提高性能。IBM正計劃為高端的DS6000和DS8000系列提供4GFC支持,EMC也很可能在第二季度推出支持4GFC和iSCSI、代號Sledgehammer(大錘)的新一代CLARiiON系統。

HP為EVA提供的iSCSI連接選件(上),其功能類似於博科iSCSI網關(下)

與對待4GFC的消極態度相比,EMC在iSCSI上的表現要積極得多,因為iSCSI能夠讓用戶在缺乏FC基礎設施的環境中構建(IP)SAN,擴大了市場覆蓋。由於CLARiiON CX300/500/700中沒有必需的乙太網支持,EMC專門推出了僅支持iSCSI的CLARiiON CX300i和500i。類似的問題也困擾著其他廠商——HP的解決之道是通過一個類似iSCSI網關設備的HP StorageWorks EVA iSCSI連接選件使EVA能同時支持FC和iSCSI,而HDS讓AMS系列在2006年初支持iSCSI的計劃還沒有實現。在這方面以NAS起家的NetApp顯然得天獨厚,其FAS3000從一開始就FC、iSCSI和NAS通吃,iSCSI SAN市場排名第一(2005年26.2%)真不是蓋的。

IBM的策略與EMC形成鮮明對照——充當4GFC排頭兵的同時卻對iSCSI很不感冒。iSCSI SAN市場規模還不夠大(2005年增長130%之後仍不到1億美元)的解釋固然有理,藍色巨人在iSCSI上因過於激進屢遭挫折的歷史恐怕也不能忽略。

粗略統計下來,前七大廠商現有的中端存儲系統中4GFC(HDS、HP、IBM、Sun/StorageTek)和iSCSI(Dell、EMC、HP、NetApp)的支持者打了個平手。可以肯定的是,這些產品的下一代都會同時支持4GFC和iSCSI,而EMC的Sledgehammer將是第一個。

EMC CLARiiON:老當益壯,換代可期

在過去的一年中,幾乎所有主要的存儲系統廠商都推出了新一代的中端存儲產品,只有EMC仍在靠兩年前就已問世的CLARiiON CX300/500/700打天下。

不過,這兩年中EMC沒有停止對CLARiiON CX300/500/700的更新和升級。大約在一年前,EMC推出了支持本地iSCSI的CLARiiON CX300i和CX500i,它們採用1Gb乙太網介面,而不是CLARiiON CX300和CX500的2Gb FC介面。最高端的CLARiiON CX700沒有相對應的iSCSI版本。顯然,目前的CLARiiON CX還不能在一個系統內同時支持FC和iSCSI。

又過了半年,EMC宣布對CLARiiON家族進行升級,新版本的CLARiiON包括CX300s、CX500s和CX700s,後面增加的「s」代表scale。硬碟驅動器和存儲控制器之間的點對點連接取代了過時的FC-AL(Fibre Channel arbitrated loop,光纖通道仲裁環路)架構。新的結構改善了錯誤隔離,使系統能檢測到將要出故障的硬碟驅動器,這在FC-AL的設計下是比較困難的。EMC將這種點對點連接稱為「UltraPoint」,並特別說明不是一種交換式設計,後者能夠形成冗餘性更好的架構。用戶可通過支持UltraPoint的新磁碟陣列櫃升級現有的CLARiiON型號。內建的直流電源支持允許電信、軍事、油氣勘探公司等機構在野外通過電池來驅動CLARiiON。

被引用了兩年的一張「合影」:CX300、CX700和CX500

新的CLARiiON軟體功能包括:虛擬邏輯單元號(Virtual LUN),允許用戶移動CLARiiON上的數據時無需中斷應用;為改善SnapView和MirrorView產品的復制能力,加入了一致性組支持(MirrorView/S),可以在跨多個卷的時間點和遠程復制時保證數據的一致性;能夠拷貝的LUN數量加倍——MirrorView從50到100,SnapView從100到200;SAN Copy的升級SAN Copy/E允許用戶在CX系列和CLARiiON AX100之間復制,而以前用戶只能在CX500和CX700之間復制。EMC宣稱,新的軟體允許用戶從像分支辦公室這樣的「邊緣」位置向中央數據中心等「核心」位置移動數據,供備份、恢復和報告使用。CLARiiON管理軟體Navisphere Manager也進行了升級,能從一個控制台管理AX100和CX系列。

對4Gb/s FC(4GFC)的支持沒有在這次升級中加入進來,因為當時EMC認為4GFC的環境還沒有真正形成——支持4GFC的交換機、HBA和硬碟驅動器相對缺乏。前不久有消息稱,EMC可能會在今年4月或6月推出支持4GFC和iSCSI連接的新一代CLARiiON CX。

CLARiiON CX300/500/700支持最大容量300GB的FC硬碟驅動器和最大容量500GB的SATA硬碟驅動器,兩種磁碟櫃可同時使用。支持RAID 0, 1, 10, 3, 5,一個RAID組最多可包括16個硬碟驅動器。可配置全局熱備份(hot spare)磁碟,重建優先順序可調整。

HDS AMS:可靠與速度兼顧

2005年7月,HDS推出了4款模塊化存儲產品,即TagmaStore工作組模塊化存儲系統(Workgroup Molar Storage)WMS100,TagmaStore可調整模塊化存儲系統(Adaptable Molar Storage)AMS200、AMS500和TagmaStore網路存儲控制器(Network Storage Controller)NSC55,其中兩款AMS較為符合人們通常對中端存儲的定義。

AMS200和AMS500的目標市場均為中型企業,分別用來取代Thunder 9530V入門級存儲系統和Thunder 9570V高端模塊化存儲系統。兩者均採用共享匯流排的雙控制器架構(可單控制器),數據緩存容量分別是1GB~4GB和2GB~8GB,最大LUN數量分別為512個和2048個。AMS200可升級為AMS500。

最初只有AMS500支持4Gb/s FC(4GFC),現在AMS200以及更低端的WMS100頁都支持4Gb/s主機連接。三款產品均具有4個4Gb/s FC主機埠,能夠更充分地發揮帶主機存儲域的512個虛擬埠的作用。不過,它們的後端磁碟介面還是2Gb/s FC-AL的規格。

HDS TagmaStore AMS200和AMS500

AMS200和AMS500的控制器為4U規格,內置15個FC硬碟驅動器。AMS對FC和SATA混插(intermix)的支持是通過外接不同類型的磁碟櫃(3U,15個驅動器)實現的:AMS200可外接6個,最大硬碟驅動器數量105個,總容量40.5TB(300GB FC硬碟驅動器和400GB SATA硬碟驅動器,下同);AMS500可外接14個,最大硬碟驅動器數量225個,總容量67.5TB(全FC)或88.5TB。

容量更大而可靠性相對較低的SATA硬碟驅動器的使用,意味著RAID組在重建過程中遭遇又一次硬碟故障的風險大為增加,因此AMS200和AMS500除常見的RAID 1, 10, 5之外,加入了對採用雙校驗盤的RAID 6(6D+2P)的支持。與NSC55和WMS100不同的是,AMS200和AMS500還支持強調性能而毫無冗餘度可言的RAID 0,但作用對象僅限於FC硬碟驅動器。通過支持動態備份盤(熱備援)的漫遊,AMS200和AMS500減少了內部拷貝的工作,陣列的性能也會得到一定的提高。

AMS200和AMS500不僅可以作為FC SAN的成員,還具備多達8個的NAS連接能力,支持NFS v2/v3、CIFS、FTP和用於管理的HTTP等網路協議。此外,HDS還計劃在2006年上半年為AMS200和AMS500提供本地iSCSI連接能力。

高速緩存分區管理(Cache Partition Manager)在AMS200和AMS500所應用的技術中最為引人注目,它將高速緩存進一步細分,每個高速緩存劃分的部分稱為分區(AMS200最多8個,AMS500最多16個),並有效地使用。LUN定義於WMS和AMS存儲系統內,可以分配給一個分區,客戶可以指定分區的大小。優化主機收集/發送的數據的方法就是根據從主機收到的應用(數據),將最適合的分配分配給LUN。視應用的特性,可以用多種不同的方法優化同一AMS存儲系統。

AMS200和AMS500支持的其他軟體包括Hitachi Resource Manager工具包、HiCommand套件、Hitachi ShadowImage In-System Replication、Hitachi Copy-on-Write Snapshot、Hitachi Volume Security、Hitachi Data Retention Utility、Hitachi Dynamic Link Manager、Hitachi HiCommand Storage Services Manager(AppIQ),此外AMS500還多一個用於遠程拷貝和D2D備份的Hitachi TrueCopy Remote Replication(同步)。

HP EVA:循序漸進,左右逢源

2005年5月中,惠普(HP)在其年度StorageWorks大會上宣布推出企業虛擬陣列(Enterprise Virtual Array,EVA)家族的最新產品EVA4000/6000/8000。

EVA4000和EVA8000分別取代問世已有兩年之久的EVA3000和EVA5000,原有的兩款產品間過大的空檔被EVA6000填補。三款產品均採用4U機架規格的FC雙HSV200控制器,一個42U的機櫃(cabinet)最多可以容納12個M5314B磁碟櫃,因此EVA8000在單個機櫃內支持的硬碟驅動器數量為168個,要達到240個的最大數量還需要增加一個工具機櫃。

EVA4000 2C1D、EVA6000 2C4D和EVA8000 2C12D

FATA(Fibre Attached Technology Adapted,光纖連接技術改造)是EVA4000/6000/8000從EVA3000/5000繼承的「遺產」中最值得一提的技術。作為一種相對廉價的大容量硬碟驅動器,FATA硬碟驅動器採用FC介面——而不是常見的SATA介面,因此可以與高性能的FC硬碟驅動器使用同樣的磁碟櫃,這也是同代的其他中端存儲系統所欠缺的能力。

EVA家族採用將每個邏輯卷都分攤到所有硬碟上的Vraid(Virtual RAID)技術,以充分利用每塊硬碟的性能。EVA4000/6000/8000可管理多達1024個虛擬磁碟(256個/HBA),每個虛擬磁碟的容量在1GB到2TB之間,能夠以1GB為增量動態擴展容量(需要主機操作系統支持)。

今年2月,EVA家族成為業內第一批能夠同時支持iSCSI和4Gb/s FC(4GFC)連接的中端存儲系統。通過使用具有2個乙太網(GbE)埠和2個FC埠的HP StorageWorks EVA iSCSI連接選件,EVA家族可以獲得iSCSI連接能力;而4GFC連接僅限於主機埠,磁碟埠仍然是2Gb/s(2GFC)。此外,還支持EVA陣列連接到XP陣列上以提高虛擬化能力並允許從HP的單一界面對多個廠商的陣列的數據管理。