当前位置:首页 » 服务存储 » 存储情况分析
扩展阅读
webinf下怎么引入js 2023-08-31 21:54:13
堡垒机怎么打开web 2023-08-31 21:54:11

存储情况分析

发布时间: 2022-08-01 02:00:17

A. FC SAN存储技术分析:如何解决存储问题

这意味着,一半以上的存储基础设施都采用了基于数据块的 DAS 和 NAS 外存贮器技术。人们经常问,是否可用作为现有存储投资的补充来部署光纤通道,以构建真正的异构存储元件集合。
答案是肯定的,我们将在下面讨论几个相关的案例分析。
案例分析 1:由 Ultra320 SCSI、ATA、SATA 等组成的、完全基于 DAS 的基础设施
在这个案例中,存储设备是在几年内分批采购的,现在有数十、甚至数百台计算机 - 数十个、甚至数百个存储设备“容器”。每个节点的容量可能有很大差别,而且利用率的差别也很大 - 这是个大问题。但是,从许多层次上看,通过一次性采购来升级到 SAN、购买所有新的存储设备并将现有存储设备迁移到新卷的方式并不具吸引力。首先,执行数据复制过程需要很多的人力和 IT 资源,成本很高,而且不可避免地会出现员工生产效率丧失的阶段。其次,如果现有 DAS 存储设备过早报废也会造成很大的资本帐面损失。
解决方案 1:虚拟化
现在市场上有许多软件虚拟化产品可供选择,使您可以将现有 DAS 基础设施连接到 SAN。例如,FalconStor 推出了 IPSTOR 产品,它允许公司把现有 DAS 存储连接到该设备的后面,从而使得原有的存储设备可在光纤通道网络上使用。所有数据都在原处保存,不要求执行复制或迁移。而且,原有节点还能够配备 2Gb 光纤通道主机适配器。采用 SAN 的优势在于投资保护,可在原有存储基础设施上简便地共享、开展和构建多种功能。利用可随需求增长的 SAN,您可以引入新的本地光纤通道存储设备和光纤通道交换机,在计算机间高效地共享可用存储容量。因此,部署的异构系统可同时支持 DAS 和 SAN 组件。
案例分析 2:有网络设备组成的、主要基于 NAS 的基础设施
用户可能会感到惊讶,NAS 设备可将光纤通道等数据块存储设备转变为在以太网上显示的“文件视图”。连接到 NAS 的用户可以看到文件夹和文件,甚至可能不知道外存贮器使用了光纤通道。问题是,许多应用程序(例如 Microsoft Exchangereg;)在允许直接与光纤通道数据块存储设备通信时表现的性能更好;这是因为,他们能够避免与以太网和 TCP/IP 文件处理相关的开销。(这是一种广义上的概念, NAS 缓冲的大小仍然对顺序数据读写和随机数据读写的应用产生影响)。如同其他数据块技术(Ultra320 SCSI 和串行SCSI -SAS),光纤通道的时延也非常低。
解决方案 2:在 外存贮器上增加光线通道数据块访问功能
为了适应优化用来利用数据块存储设备的应用程序,用户可以在 NAS 设备上添加光纤通道目标接口。这个过程涉及到在以目标模式运行的 外存贮器中插入经过认可的光纤通道 HBA (主机总线适配器)。这样允许在 SAN 中通告一个或多个 LUN。然后,在每个希望访问这些 LUN(LUN,逻辑单元号, Logic Unit Number) 的计算机上安装单独的光线通道 HBA。最后,使用设备提供的管理 GUI,用户可向每个 LUN 分配 外存贮器的剩余容量。因此,部署的异构系统可同时支持文件和数据块级的数据访问。
案例分析 3:光纤通道存储设备“机架”太昂贵、不适于融合近线存储应用
许多 IT 机构的企业环境中都会积累数以千 G 的数据,几乎不可能在工作日之间的夜晚八个小时内完全备份到磁带中。市场上有许多磁带虚拟化产品,如 EMC 的 CDL (CLARiiON 磁盘库)和 Neartek 的 Virtual Storage Engine (VSE2),他们可将基于 RAID 的磁盘设备转变为许可磁带设备,而且还可能具有很高的写入性能。各种应用以为它们在与磁带外设进行数据通讯,但实际上数据被写入了 RAID 设备中。这些 RAID 设备的速度允许 IT 管理员在指定的夜间时段内轻松地完全备份数据。此后,在第二天的工作过程中,可进行真正的磁带备份,而且还不会影响到 SAN 的性能。问题是,本机光纤通道磁盘驱动器价格昂贵,不适用于这种“近线性存储”应用。
解决方案 3:使用 SAS/SATA 磁盘驱动器的光纤通道存储 JBOD
许多厂商都在推出内部使用 SAS/SATA 硬盘驱动器的光线通道 JBOD 机架。JBOD 无论采用哪种驱动器都能很好地工作。如果应用要求冗余端口、高 I/O 性能和最高的 平均无故障时间 等级时,用户可以选择更加可靠(也更昂贵)的 SAS 驱动器。对于近线性存储应用,用户可以选择使用不太昂贵的大容量 (300GB) SATA 驱动器。SATA 技术适用于大数据块、低 I/O 工作负载的近线性存储设备,适合与光纤通道“前端”连接集成。
案例分析 4:大量光纤通道存储设备采用物理距离很远的服务器
尽管光纤通道能够支持超过 10km 的光缆,但这经常不切实际,或者距离甚至会超出光线通道的适应能力。在这些情况下,企业往往会发现,无法在企业数据中心和工作现场的服务器间建立连接,使得服务器无法联网。
解决方案 4:ISCSI 和 FCIP 桥接产品
现在,供应商提供了一些新产品,允许不能联网的服务器以某种方式访问光线通道 SAN。第一种方式,采用 FCIP 或 iFCP;这些隧道技术允许在 SAN 间建立 广域网 距离的链路。例如,从技术角度讲,以太网被用来通过隧道将光纤通道从一侧的 SAN 连接到另一侧的 SAN。McData 推出了几种具备这种能力的新型交换机产品。第二种方法是以网桥的方式使用 iSCSI。光线通道 SAN 上的额外的存储容量作为在以太网网络上被声明为iSCSI的LUN。远程位置的服务器能够通过基于硬件的 iSCSI 适配器或基于软件的 iSCSI 驱动程序访问 iSCSI LUN。有免费的 iSCSI 驱动程序可用于 Windowsreg; 和 Linux 操作系统。这些驱动程序利用远程服务器上已有的以太网连接。尽管用户可以选择购买 1Gb iSCSI HBA,但他们必须考虑到许多远程办公室只有 T1 和部分 T1 WAN 连接,而不可能进行持续的 1Gb 传输。现在,McData 和 Maranti Networks 等许多公司都在销售具备光纤通道到 iSCSI 桥接功能的光线通道交换设备。值得一提的是,有些网络设备现在也可以提供 iSCSI LUN 功能。
作为一项技术,FC在海量存储方面有着极强的优势:简化的管理、更好的空间利用、更短的反应时间和高带宽。在过去十年中,FC在提高协同性、降低复杂性和减少成本方面等方面有了巨大的改进。这些改进已使FC超越企业级数据中心的应用,进入中小企业领域。上面一系列的例子旨在证明,在现实情况下,光线通道、NAN 和 DAS 的混合部署能够为用户带来很大的利益。

B. 如何对需求进行数据访问和存储方面的挖掘和数据分析

通过平台建立可以随时查看各网点的状态,比如存取款数据分析、考核报表,还可以做客户分析,企业的存贷款,大额用户的存贷款,以及一些预报警功能,如果某些数据低过设定阀值系统将会报警通知相关人员。
针对不良贷款额以及不良贷款率,各网点盈利情况、账面情况等等都可以进行监控和报表展现。

永洪科技的大数据产品在和银行类的用户合作中表现还是很不错的。

C. 存储虚拟化的问题

据统计,存储数据量的年增长率达50%~60%。面对新的应用,以及不断增加的存储容量,企业用户需要借用虚拟技术来降低管理的复杂性,提高效率。但是随着存储技术的发展,用户对于数据的需求增加,为什么虚拟存储技术没有完全普及呢?这还要从虚拟存储技术面临的困难说起。
目前,企业用户面临的最大压力是什么?一是存储数据的成本在不断地增加;二是数据存储容量爆炸性增长;三是越来越复杂的环境使得存储的数据无法管理。周所周知,虚拟化有三种方式实现,基于服务器、基于存储以及基于网络。基于存储的虚拟化手段,目的就是面向用户的应用进行优化。存储虚拟化首先要解决的难题就是异构平台的数据管理问题。存储虚拟化可以把用户不同的存储系统融合成单一的平台,解决数据管理难题,并通过分级存储实现信息的生命周期管理,从而进一步优化应用环境。
虚拟存储技术最受关注的问题是数据安全问题。因为虚拟存储把所有数据都放在了一个系统环境下,这就相当于把鸡蛋都放在一个篮子里,一旦打翻,所有鸡蛋都会损失。所以一旦数据被存放进虚拟存储环境中,就不能被轻易删除。这无疑加大了数据的风险,在安全投资上也要相应加大。
虚拟存储的第二个问题在于忽视了我国庞大的中小企业需求。目前的虚拟存储技术大部分都是专注于高端用户的,这些用户存储系统庞大,不仅设备多,所采用的软件也很复杂,在这种情况下,虚拟存储技术可以带来管理,成本上的诸多优势。但是目前我国中小企业已经成为企业市场的主力军,不针对中小企业用户的需求推广虚拟存储技术,使该技术的发展变得缓慢了。
阻碍存储虚拟化产品的因素还有一个就是价格,这也正是由于专注于高端市场带来的弊端。对于多数的中小企业用户面临存储空间不足,直接买大容量硬盘来解决存储上的问题,即使在存储空间上有所浪费,但相比使用虚拟化存储架构,大容量的硬盘还是比较合算,此外中小企业存储系统不复杂,管理起来也没有太大难度,这些都导致虚拟存储技术在普及上存在着一定的困难。
一款存储虚拟化产品只能对有限的存储空间起作用。扩展性和性能哪个更为重要,要根据实际的情况来分析。在部署产品之前要进行系统测试。在刚部署完成的初期,扩展性问题也许不会显现出来。因此提前对扩展性进行评估可以帮助用户选择正确的产品。
基于阵列的存储虚拟化产品只是对自己厂家的产品有效。基于主机或者光纤的存储虚拟化产品也是对某些特定厂家的软件或者设备有效。用户需要检查存储虚拟化产品是否跟自己当前的存储环境兼容。
综上所述,虚拟存储技术不仅在存储厂商是热门话题,而且在用户中对于存储虚拟化技术呼声越来越高,随着人们对于数据安全性、完整性的要求提高,存储系统已经成为IT应用中的重要环节,存储系统的复杂化,存储系统的管理也成为难点,相信在不久的将来虚拟存储技术在克服了面临的困难后,会给企业用户存储系统的效率的提高,系统安全稳定的运行,减少总体拥有成本,增加投资回报等方面有效的实现。

D. 高分求助SQL存储过程详细分析,最好每句解释一下

ALTER procere [dbo].[wvsp_updateTaskStatus]
@ttype int,
@id int,
@status int // 这一段主要是定义存储过程需要的参数
as
begin 开始存储过程
if @ttype=0 // 开始判断 如果传进来的@ttype=0
begin //开始执行
if (@status=3) //如果(@status=3)
begin //开始执行函数
insert into tb_queuelog([type],mid,code,otherparams,created) //往表名为tb_queuelog的表插入数据,以上为要插入的字段
select @ttype,mid,code,otherparams,created
from tb_mergequeue
where id=@id //要插入字段的数据从表tb_mergequeue 搜索出来,与上表要插入的字段一一对应,搜索条件为:id=@id

delete from tb_mergequeue
where id=@id //删除tb_mergequeue表中where id=@id的字段
end //结束@status=3条件循环
else//如果(@status不等于3,进入另一个方法
update tb_mergequeue
set status=@status
where id=@id //更新tb_mergequeue的数据

end //结束(@status不等于3的条件循环
else if(@ttype=1) //如果 (@ttype=1 -- 页面同步任务
begin开始
if (@status=3)
begin
insert into tb_queuelog([type],mid,code,otherparams,created)
select @ttype,mid,code,otherparams,created
from tb_syncqueue
where id=@id

delete from tb_syncqueue
where id=@id
end
else
update tb_syncqueue
set status=@status
where id=@id
end

select @@rowcount //取得记录总数
end 结束存储过程

E. 如何进行存储系统的性能测试

要解决问题,首先要明确准备将测试结果精确到什么程度:
只是获得一个初步的结果;
分析未来的发展动向;
准备搜集尽可能多的数据;
进行存储性能分析不仅仅是收集数据那么简单。采集数据只是一方面,另外,需要分析数据。可以用现有的SRM(存储资源管理)工具来采集数据。如果没有这种系统,可以雇用顾问公司来解决这个问题(顾问公司还可以同时进行数据分析)。
几个SRM系统能够工作,比如SUN公司的StorEdge Suite,IBM公司也集成了Trellisoft SRM系统,这两个系统都能在开源环境中工作。然而,这些系统都有至少5个许可证书,如果要在自己的系统中采用它们,就需要获得相应许可。
如果只想测试系统性能,不需要执行整个SRM系统,最好的选择是获得外部的帮助(比如雇用顾问公司)。
如果打算采用别的软件来完成采集数据的工作,那么需要注意如下几点:
执行软件前,需要配置好对应的管理框架
软件不一定支持所有的操作环境(Windows, Linux, Solaris, Aix)
软件不支持数据库
测试代理性能时需要重启已经安装过的服务器
除了少数几个操作系统,软件代理大部分情况下无法进行远程操作(设想一下,可能需要手动安装上百个代理软件)

F. 存储系统分析 存储区域网瓶颈到底在哪里

存储网络系统由存储设备、网络设备和主机三个部分组成。存储设备是指该系统中采用的NAS、ISCSI、FC-SAN等磁盘阵列设备,网络设备是指FC交换机或以太网交换机,主机是指安装了以太网卡、FC HBA卡,并安装了一定应用软件的主机设备。存储系统的瓶颈分析主要是看这三个部分中哪一种会首先达到其性能的最大值。 存储成为整个系统的瓶颈是指存储设备的带宽达到最大值,或IOPS达到最大值,存储设备限制了系统性能的进一步提升,甚至影响了整个系统的正常运行。由于不同业务系统对存储的性能要求不同,一般小文件(小于1MB)读写型的系统中对IO的要求较高,大文件的读写型系统对存储设备带宽的要求比较高。不用应用模式下系统对存储设备的要求不同,瓶颈点出现的位置和特点也不一样。 应用模式1: 小型网站系统,应用大多集中于远程用户对WEB页面访问,网站内部为WEB服务器和数据库之间的读写,应用系统对存储的压力非常小,差不多所有类型、所有档次的存储设备都可以作为核心存储,存储设备的带宽和IOPS很难会达到极限。在这样的系统中,与存储设备连接的网络设备一般都千兆以太网交换机,交换机本身的交换能力大多都是10Gb,只有接入网部分的可用带宽较小,一般只有100Mb/s左右的接入带宽,因此接入网最有可能成为存储网络的瓶颈。 应用模式2: 如果该网站是一个大型的网络视频系统,支持大量用户在线进行视频节目播放和下载,这种类型的网站前端接入网一般都在2Gb/s以上。此时要分析瓶颈位置,首先要比较接入网带宽和存储带宽,同时还要比较在线用户的最大IO访问量和存储设备的IOPS值。一般来讲,由于NAS设备的带宽和IOPS相对较小,因此NAS比ISCSI和FC-SAN设备更容易成为系统的瓶颈,而ISCSI和FC-SAN较难成为瓶颈。如果存储设备采用NAS,则存储系统成为瓶颈的机率大于接入网,如果存储设备采用FC-SAN,则存储系统成为瓶颈的机率小于接入网。 瓶颈还经常会出现在负责节目播放和下载功能的视频服务器处。如果视频服务器配置的数量不足,或视频服务器之间无法正常地实现自动地网络负载均衡,那么整个系统的性能压力瓶颈就会出现在视频服务器,使用整个视频网站无法给远程用户提供流畅的节目画面。 应用模式3: 数据库系统,数据库系统的存储应用一般都表现为大量的IO访问,对带宽要求较低。如果存储设备的IOPS较小时,会降低数据库的检索和查寻速度,从来影响整个业务的效率。因此建议数据库系统采用IOPS(可按业务规模、工作站数量、每秒的读写访问次数和估算)比较大的FC-SAN设备,不建议采用IOPS相对较小的NAS或ISCSI设备。大型数据库存储最好能采用15000RPM的高速FC磁盘,这样才能将数据库服务器成为整个系统的压力瓶颈。由于SATA硬盘在随机IO读写时的性能不佳,因此存储设备不建议采用SATA磁盘,否则存储设备极有可能数据库系统的IOPS瓶颈。 应用模式4: 非线性编辑制作系统。在非线性编辑制作网络中,所有工作站共享式地访问核心存储系统,每台工作站同时以50-200Mb/S的恒定码率访问存储设备。业务系统对带宽的压力非常,而IOPS压力较小。 存储设备的总可用带宽越大,存储设备就能支持更多数量的编辑制作工作站,网络的规模就越大,网络系统所能承担的业务就越重要。因此编辑制作网的存储一般都会选择主机端口多、特别是磁盘端口多、带宽大的FC-SAN设备。存储设备内部设计时,一般会通过增加磁盘数量、增加扩展柜数量、跨扩展柜创建RAID组、增加主机通道数量等方式最大限度地利用存储控制器前端和后端的总可用带宽,使得磁盘、磁盘通道、主机通道等的总带宽大于控制器的总带宽,这样在工作站访问时存储设备时,才能最大地发挥出控制器的带宽性能。带宽瓶颈在控制器部位才能说明是最好的存储系统设计方案。

G. 如何分析单片机存储空间的使用情况

问题不太明确,简单说一下吧。
存储空间分成ROM和RAM。
ROM的情况相对比较简单,单片机有多大的ROM,写程序用了多少,一般编译的时候都会给出汇总情况,如果没有直接给出,看生成的map文件肯定会有这部分信息。
RAM的使用可以分成静态分配的动态分配的两部分。
静态分配,指静态变量、全局变量等,比如显示缓冲区,是在写程序的时候分配的,编译的时候也会给出汇总,或者也可以看map文件。
动态分配的又可以分成堆、栈两种情况,注意,堆和栈实际上是两种完全不同的内存管理结构。
堆是由编程人员通过编程控制的,通过malloc和free来申请和释放的,用多少全由程序员说了算。
最后说栈,这个是最复杂的。局部变量一般是在栈上分配的,少量局部变量可能会放在寄存器上,做为寄存器变量,但大部分的局部变量是放在栈上的。具体栈空间的使用情况,取决于子程序之间的调用。如果子程序嵌套的层数少,则栈的空间可能就用的少,层数多,则用的空间可能就多。这里之所以说可能多可能少,是因为这只是种可能,是因为栈空间的使用很难预计准确。

结论,存储空间的使用情况,栈的使用是最难预计的,也是最容易出问题的。

H. 关于IBM、HP等中低端存储详细综合分析报告。

中产阶级的品质可以反映出一个国家的发展前景,而中端存储就是外部磁盘存储市场的中产阶级,不仅起着承上启下的作用,也是整个市场状况的晴雨表。

Gartner和IDC在3月初公布的2005年外部磁盘存储市场调查报告都得出了全年收入增长达两位数(11.2%和12.1%)的结论,其中中端存储系统的贡献最大:

在过去两年中,按季度计算的收入增长率(与一年前同期相比),EMC的CLARiiON家族除2005年第三季度为20%,其余11个季度都超过了30%!尤其在Symmetrix DMX-3推出之前,是CLARiiON的出色表现弥补了高端存储系统相对低迷造成的损失;

惠普(HP)2005年第四季度和全年的收入增长均略低于市场平均水平,但EVA中端存储阵列的“强势”增长和高端XP系列的增长帮助其保住了第二的位置;

2005年全年IBM收入增长在25%左右,第四季度的增长率更接近50%,而中端存储系统收入在4Gb/s的TotalStorage DS4800的推动下增长超过40%;

以中端存储为主的戴尔(Dell)全年增长约40%,第四季度更接近60%;

Network Appliance(NetApp)第四季度和全年的收入增长均在23%左右,在FAS3000系列的推动下超越Sun排名第六……

可是,上述厂商能否代表整个市场呢?当然!根据Gartner的统计,加上HDS(日立存储系统)和Sun,前七大厂商在2005年第四季度和全年所占的市场份额分别为83.5%和81.6%,比一年前的75.8%和77.8%有所上升。由此可见,大型厂商对存储行业的控制是相当……的强。

从上面的分析可以看到,把中端存储系统的研究范围圈定在EMC、惠普、IBM、HDS、戴尔、NetApp和Sun这前七大存储系统厂商的相应产品中应该具有足够的代表性。不过,我们下面只列举了其中六家的产品,因为戴尔的中端存储系统OEM自EMC。事实上,EMC CLARiiON家族的骄人业绩便有戴尔一份功劳。

如何界定中端存储系统?

在中端存储系统的界定上,我们主要参考各厂商自己的定义:部分厂商对自己的产品有明确的分类——IBM和HP用“Mid-range”,Sun用“Midrange”,一目了然;其他厂商虽然没有写得这么直白,但每个系列产品的定位大家也都是很清楚的。不同厂商的中端存储系统在配置上会有高下之分,不过并不足以形成明显的分野。

严格说来,公认的中端存储系统范围要更小一些。举例来说,HDS将TagmaStore NSC55定位在中端存储系统中的高端,表面看来其最大72TB的容量确实比地道的中端系统TagmaStore AMS500还低,可实际上NSC55与高端的TagmaStore USP有着密切的血缘关系,称之为入门级的高端存储系统恐怕更为合适——HDS的两个OEM客户HP和Sun就是这么做的。同样的规则也可以解释IBM为何要把最大容量只有38.4TB的TotalStorage DS6800划入企业级(Enterprise,相当于“高端”)存储系统的行列。

NSC55与DS6800偏小的容量部分归因于它们仅支持高性能的FC硬盘驱动器(最大300GB),而那些只能使用大容量的SATA/PATA硬盘驱动器(最大500GB)的存储系统也不能算作中端——如最大容量58TB的StorageTek FlexLine FLX680。最大容量96.7TB的NearStore R200也属于这类产品,NetApp将它与NearStore虚拟磁带库(VTL)一并列为近线存储(Nearline Storage)是很合理的。

中端存储系统应该在功能、性能、容量和价格之间取得较好的平衡,并能适应主存储和近线存储等多种不同的应用需求。高性能的FC硬盘驱动器传统上一直是主存储的首选,但SATA硬盘驱动器的经济性对非实时交易的数据仓库、目录服务、软件开发和灾难恢复系统等性能“够用就好”的应用具有越来越难以抗拒的吸引力,更不要说非常在意容量和单位价格的二级存储了,因此同时支持FC和SATA硬盘驱动器已成为中端存储系统必备的素质。

性能与经济性不可偏废

众所周知,FC(确切地说是FC-AL)和SATA是两种互不兼容的接口标准,对此最常见的解决方法是同时提供两种内部接口不同而外部统一为FC连接的磁盘柜,EMC CLARiiON CX家族和HDS Thunder 9500V系列就是这种做法的代表,我们不妨称之为磁盘柜层面的(FC和SATA)混用。

2004年4月,HP宣布联合希捷(Seagate)推出FATA(Fibre Attached Technology Adapted,光纤连接技术改造)硬盘驱动器,并于当年7月在其EVA 3000/5000中提供了250GB FATA硬盘驱动器的选项。同月,FATA所代表的“低成本、高容量FC接口硬盘驱动器”获得了FCIA(Fibre Channel Instry Association,光纤通道工业协会)的认可。

FATA硬盘驱动器相当于改用FC接口的SATA硬盘驱动器,从而能够与传统的FC硬盘驱动器使用同一种磁盘柜,用户可以根据实际需要随意选择高性能而昂贵(FC)或大容量且廉价(FATA)的硬盘驱动器,提高了灵活性和任务弹性。与SATA相比,FC接口电路较为复杂,加之产量较小,使得FATA硬盘驱动器的价格要高于SATA硬盘驱动器,不过磁盘柜的精简可以大致抵消这一不利因素。此外,EMC Symmetrix DMX-3企业级存储系统中采用的LC-FC(Low Cost Fibre Channel,低成本FC)硬盘驱动器实质上也等同于FATA,但目前尚不清楚会否应用在下一代CLARiiON产品中。

得益于FC的双端口特性,FATA(或LC-FC)硬盘驱动器的可靠性略高于SATA硬盘驱动器,不过与“正宗的”FC硬盘驱动器还差得远,出故障的几率较大。同时,FATA/SATA硬盘驱动器动辄数百GB的容量和相对缓慢的速度使RAID组重建的时间成倍增加,在此期间出现第二个故障硬盘的风险很高。为了避免由此导致的数据丢失,那些能够在同一RAID组中有两个硬盘出故障的情况下保护数据的RAID技术开始受到青睐,如HDS所采用的RAID 6(从RAID 5发展而来)和NetApp独有的RAID-DP(RAID Double Parity,建立在RAID 4基础上的双校验)。

4GFC和iSCSI:旗鼓相当,冲线在即

4Gb/s FC(4GFC)和iSCSI都是中端存储系统领域的热点话题,它们代表了两个方向——单纯提升速度和扩展连接能力。

4GFC从2005年开始升温,由于从那时起只有对其持保守态度的EMC更新了高端存储系统(Symmetrix DMX-3),因此中端存储系统理所当然地成为4GFC发展的主战场。

2005年6月IBM率先以TotalStorage DS4800响应4GFC,HDS TagmaStore AMS系列随后跟进,HP StorageWorks EVA4000/6000/8000也在半年之后加入行列。EMC虽然升级了CLARiiON CX300/500/700,却没有4GFC什么事,理由是整个大环境还没有成熟。

现在支持4GFC的HBA和交换机已不难获得,问题在于硬盘驱动器还没有到位,甚至AMS系列和EVA4000/6000/8000的后端磁盘接口也还停留在2Gb/s FC(2GFC),只有DS4800刚刚用上支持4GFC的磁盘柜。

当然,在设计得当的情况下只有主机端连接达到4Gb/s的速度一样可以提高性能。IBM正计划为高端的DS6000和DS8000系列提供4GFC支持,EMC也很可能在第二季度推出支持4GFC和iSCSI、代号Sledgehammer(大锤)的新一代CLARiiON系统。

HP为EVA提供的iSCSI连接选件(上),其功能类似于博科iSCSI网关(下)

与对待4GFC的消极态度相比,EMC在iSCSI上的表现要积极得多,因为iSCSI能够让用户在缺乏FC基础设施的环境中构建(IP)SAN,扩大了市场覆盖。由于CLARiiON CX300/500/700中没有必需的以太网支持,EMC专门推出了仅支持iSCSI的CLARiiON CX300i和500i。类似的问题也困扰着其他厂商——HP的解决之道是通过一个类似iSCSI网关设备的HP StorageWorks EVA iSCSI连接选件使EVA能同时支持FC和iSCSI,而HDS让AMS系列在2006年初支持iSCSI的计划还没有实现。在这方面以NAS起家的NetApp显然得天独厚,其FAS3000从一开始就FC、iSCSI和NAS通吃,iSCSI SAN市场排名第一(2005年26.2%)真不是盖的。

IBM的策略与EMC形成鲜明对照——充当4GFC排头兵的同时却对iSCSI很不感冒。iSCSI SAN市场规模还不够大(2005年增长130%之后仍不到1亿美元)的解释固然有理,蓝色巨人在iSCSI上因过于激进屡遭挫折的历史恐怕也不能忽略。

粗略统计下来,前七大厂商现有的中端存储系统中4GFC(HDS、HP、IBM、Sun/StorageTek)和iSCSI(Dell、EMC、HP、NetApp)的支持者打了个平手。可以肯定的是,这些产品的下一代都会同时支持4GFC和iSCSI,而EMC的Sledgehammer将是第一个。

EMC CLARiiON:老当益壮,换代可期

在过去的一年中,几乎所有主要的存储系统厂商都推出了新一代的中端存储产品,只有EMC仍在靠两年前就已问世的CLARiiON CX300/500/700打天下。

不过,这两年中EMC没有停止对CLARiiON CX300/500/700的更新和升级。大约在一年前,EMC推出了支持本地iSCSI的CLARiiON CX300i和CX500i,它们采用1Gb以太网接口,而不是CLARiiON CX300和CX500的2Gb FC接口。最高端的CLARiiON CX700没有相对应的iSCSI版本。显然,目前的CLARiiON CX还不能在一个系统内同时支持FC和iSCSI。

又过了半年,EMC宣布对CLARiiON家族进行升级,新版本的CLARiiON包括CX300s、CX500s和CX700s,后面增加的“s”代表scale。硬盘驱动器和存储控制器之间的点对点连接取代了过时的FC-AL(Fibre Channel arbitrated loop,光纤通道仲裁环路)架构。新的结构改善了错误隔离,使系统能检测到将要出故障的硬盘驱动器,这在FC-AL的设计下是比较困难的。EMC将这种点对点连接称为“UltraPoint”,并特别说明不是一种交换式设计,后者能够形成冗余性更好的架构。用户可通过支持UltraPoint的新磁盘阵列柜升级现有的CLARiiON型号。内建的直流电源支持允许电信、军事、油气勘探公司等机构在野外通过电池来驱动CLARiiON。

被引用了两年的一张“合影”:CX300、CX700和CX500

新的CLARiiON软件功能包括:虚拟逻辑单元号(Virtual LUN),允许用户移动CLARiiON上的数据时无需中断应用;为改善SnapView和MirrorView产品的复制能力,加入了一致性组支持(MirrorView/S),可以在跨多个卷的时间点和远程复制时保证数据的一致性;能够拷贝的LUN数量加倍——MirrorView从50到100,SnapView从100到200;SAN Copy的升级SAN Copy/E允许用户在CX系列和CLARiiON AX100之间复制,而以前用户只能在CX500和CX700之间复制。EMC宣称,新的软件允许用户从像分支办公室这样的“边缘”位置向中央数据中心等“核心”位置移动数据,供备份、恢复和报告使用。CLARiiON管理软件Navisphere Manager也进行了升级,能从一个控制台管理AX100和CX系列。

对4Gb/s FC(4GFC)的支持没有在这次升级中加入进来,因为当时EMC认为4GFC的环境还没有真正形成——支持4GFC的交换机、HBA和硬盘驱动器相对缺乏。前不久有消息称,EMC可能会在今年4月或6月推出支持4GFC和iSCSI连接的新一代CLARiiON CX。

CLARiiON CX300/500/700支持最大容量300GB的FC硬盘驱动器和最大容量500GB的SATA硬盘驱动器,两种磁盘柜可同时使用。支持RAID 0, 1, 10, 3, 5,一个RAID组最多可包括16个硬盘驱动器。可配置全局热备份(hot spare)磁盘,重建优先级可调整。

HDS AMS:可靠与速度兼顾

2005年7月,HDS推出了4款模块化存储产品,即TagmaStore工作组模块化存储系统(Workgroup Molar Storage)WMS100,TagmaStore可调整模块化存储系统(Adaptable Molar Storage)AMS200、AMS500和TagmaStore网络存储控制器(Network Storage Controller)NSC55,其中两款AMS较为符合人们通常对中端存储的定义。

AMS200和AMS500的目标市场均为中型企业,分别用来取代Thunder 9530V入门级存储系统和Thunder 9570V高端模块化存储系统。两者均采用共享总线的双控制器架构(可单控制器),数据缓存容量分别是1GB~4GB和2GB~8GB,最大LUN数量分别为512个和2048个。AMS200可升级为AMS500。

最初只有AMS500支持4Gb/s FC(4GFC),现在AMS200以及更低端的WMS100页都支持4Gb/s主机连接。三款产品均具有4个4Gb/s FC主机端口,能够更充分地发挥带主机存储域的512个虚拟端口的作用。不过,它们的后端磁盘接口还是2Gb/s FC-AL的规格。

HDS TagmaStore AMS200和AMS500

AMS200和AMS500的控制器为4U规格,内置15个FC硬盘驱动器。AMS对FC和SATA混插(intermix)的支持是通过外接不同类型的磁盘柜(3U,15个驱动器)实现的:AMS200可外接6个,最大硬盘驱动器数量105个,总容量40.5TB(300GB FC硬盘驱动器和400GB SATA硬盘驱动器,下同);AMS500可外接14个,最大硬盘驱动器数量225个,总容量67.5TB(全FC)或88.5TB。

容量更大而可靠性相对较低的SATA硬盘驱动器的使用,意味着RAID组在重建过程中遭遇又一次硬盘故障的风险大为增加,因此AMS200和AMS500除常见的RAID 1, 10, 5之外,加入了对采用双校验盘的RAID 6(6D+2P)的支持。与NSC55和WMS100不同的是,AMS200和AMS500还支持强调性能而毫无冗余度可言的RAID 0,但作用对象仅限于FC硬盘驱动器。通过支持动态备份盘(热备援)的漫游,AMS200和AMS500减少了内部拷贝的工作,阵列的性能也会得到一定的提高。

AMS200和AMS500不仅可以作为FC SAN的成员,还具备多达8个的NAS连接能力,支持NFS v2/v3、CIFS、FTP和用于管理的HTTP等网络协议。此外,HDS还计划在2006年上半年为AMS200和AMS500提供本地iSCSI连接能力。

高速缓存分区管理(Cache Partition Manager)在AMS200和AMS500所应用的技术中最为引人注目,它将高速缓存进一步细分,每个高速缓存划分的部分称为分区(AMS200最多8个,AMS500最多16个),并有效地使用。LUN定义于WMS和AMS存储系统内,可以分配给一个分区,客户可以指定分区的大小。优化主机收集/发送的数据的方法就是根据从主机收到的应用(数据),将最适合的分配分配给LUN。视应用的特性,可以用多种不同的方法优化同一AMS存储系统。

AMS200和AMS500支持的其他软件包括Hitachi Resource Manager工具包、HiCommand套件、Hitachi ShadowImage In-System Replication、Hitachi Copy-on-Write Snapshot、Hitachi Volume Security、Hitachi Data Retention Utility、Hitachi Dynamic Link Manager、Hitachi HiCommand Storage Services Manager(AppIQ),此外AMS500还多一个用于远程拷贝和D2D备份的Hitachi TrueCopy Remote Replication(同步)。

HP EVA:循序渐进,左右逢源

2005年5月中,惠普(HP)在其年度StorageWorks大会上宣布推出企业虚拟阵列(Enterprise Virtual Array,EVA)家族的最新产品EVA4000/6000/8000。

EVA4000和EVA8000分别取代问世已有两年之久的EVA3000和EVA5000,原有的两款产品间过大的空档被EVA6000填补。三款产品均采用4U机架规格的FC双HSV200控制器,一个42U的机柜(cabinet)最多可以容纳12个M5314B磁盘柜,因此EVA8000在单个机柜内支持的硬盘驱动器数量为168个,要达到240个的最大数量还需要增加一个工具机柜。

EVA4000 2C1D、EVA6000 2C4D和EVA8000 2C12D

FATA(Fibre Attached Technology Adapted,光纤连接技术改造)是EVA4000/6000/8000从EVA3000/5000继承的“遗产”中最值得一提的技术。作为一种相对廉价的大容量硬盘驱动器,FATA硬盘驱动器采用FC接口——而不是常见的SATA接口,因此可以与高性能的FC硬盘驱动器使用同样的磁盘柜,这也是同代的其他中端存储系统所欠缺的能力。

EVA家族采用将每个逻辑卷都分摊到所有硬盘上的Vraid(Virtual RAID)技术,以充分利用每块硬盘的性能。EVA4000/6000/8000可管理多达1024个虚拟磁盘(256个/HBA),每个虚拟磁盘的容量在1GB到2TB之间,能够以1GB为增量动态扩展容量(需要主机操作系统支持)。

今年2月,EVA家族成为业内第一批能够同时支持iSCSI和4Gb/s FC(4GFC)连接的中端存储系统。通过使用具有2个以太网(GbE)端口和2个FC端口的HP StorageWorks EVA iSCSI连接选件,EVA家族可以获得iSCSI连接能力;而4GFC连接仅限于主机端口,磁盘端口仍然是2Gb/s(2GFC)。此外,还支持EVA阵列连接到XP阵列上以提高虚拟化能力并允许从HP的单一界面对多个厂商的阵列的数据管理。