A. 软件定义存储与传统储存阵列的区别
传统存储阵列就是一个个的“铁盒子”,在处理能力、扩展性、可维护性、可靠性方面,以及成本考量都呈现出更多的劣势,而这些问题正是SandStone这种软件定义存储产品所正在或将要予以解决的。
B. 请问”磁盘阵列”和”存储系统”有什么区别和联系
你好,我是做存储行业的,就我个人的理解说一下这两个概念吧,仅供参考。
首先要明确磁盘阵列的概念,磁盘阵列是一种存储介质,说白了它就是一个堆硬盘形成的一块大硬盘,通过做RAID实现并行读写并通过数据校验保证数据的正确性和安全性。
而存储系统是一个大概念,一个典型的存储系统会分为业务层、备份层、数据保护层和最终的归档层:
根据业务层的业务种类,决定了你所用到的存储类型,是使用基于文件系统的NAS存储,还是使用基于数据库块操作的磁盘阵列;接下来在备份层结合备份软件,将业务数据备份到磁盘阵列或磁带中;在数据保护层中,将用到一些数据保护技术,如数据压缩、数据加密、重复数据删除等等;最后数据归档层中,将数据归档到磁带中。
C. 云存储,网络阵列存储,服务器有什么区别
服务器简单说就是一个电脑,但硬件配置要高很多,可以有2、4、8个CPU,内存可以支持到几十G,但通常不会有独立显卡。
网络阵列存储:将多块物理硬盘按一定方式组合起来形成一个硬盘组,使其成为一个整体,从而扩大容量,提高存储性能。这个是需要服务器支持的,单独是存储不了东西的。
云储存其实就上面2个东西加一起,然后对用户开放的,可以自由存储东西,你可以在家里把东西传到云储存上,到办公室下载下来使用。背后的硬件支持就是服务器+网络阵列存储。
D. 磁盘阵列与存储的区别有哪些
通俗的讲:存储是指数据保存下来的统称。而保存的介质有很多种类型,如磁盘、磁带、硬盘、光盘、U盘等;
磁盘阵列是把多块硬盘连接在一起组成一个磁盘组,提供一个廉价、海量、高性能的逻辑硬盘,磁盘阵列采用多种RAID技术,提高数据冗余度和提升I/O读写性能。磁盘阵列发展到如今,已经成为数据中心不可或缺的产品,可应用在数据存储、备份容灾、数据归档、安全存储、高性能存储等多个方面。
E. 计算机组成原理中的存储阵列是什么意思
存储阵列:由大量的存储单元组成,每个存储单元能存放1位二值数据(0,1)。通常存储单元排列成N行×M列矩阵形式。
它是把多个磁盘组成一个阵列,当作单一磁盘使用,它将数据以分段(striping)的方式储存在不同的磁盘中,存取数据时,阵列中的相关磁盘一起动作,大幅减低数据的存取时间,同时有更佳的空间利用率。磁盘阵列所利用的不同的技术,称为RAID level ,不同的level 针对不同的系统及应用,以解决数据安全的问题。
一般高性能的磁盘阵列都是以硬件的形式来达成,进一步的把磁盘快取控制及磁盘阵列结合在一个控制器(RAID controler)或控制卡上,针对不同的用户解决人们对磁盘输出/入系统的四大要求:
增加存取速度。
容错(fault tolerance ),即安全性。
有效的利用磁盘空间。
尽量的平衡CPU,内存及磁盘的性能差异,提高电脑的整体工作性能。
RAID0为例子,如果我用两个硬组成,500G两个,总容量1000G,读写速度理论是单个的两倍。不过缺点是一个硬盘坏了,全部数据都找不回来
F. SD储存卡能否做成阵列
将多张存储卡做成阵列形式,是不安全的,
对所有存储卡进行同时读写,可以做到增大容量又能加快读取速度,
但是数据是分散到各个存储卡中,也就意味着卡不能随便插拔,
任何一卡的损坏和丢失对数据来说是毁灭性的。
固态硬盘(由控制单元和存储单元组成,简单的说就是用固态电子存储芯片阵列而制成的硬盘)比较接近你的想法,但固态硬盘存储单元是不能插拔的,在读写次数和安全方面有更高要求。
G. 能解释一下内存存取吗
内存作为计算机的重要部件,近几年发展迅速,从SDRAM到如今的DDR3,内存经历了多个技术时代。本文就内存的发展简单讲解内存的存储原理和内存技术发展岁遇到的瓶颈。
内存和显存被统称为记忆体(Memory),全名是动态随机存取记忆体(DynamicRandomAccessMemory,DRAM)。基本原理就是利用电容内存储电荷的多寡来代表0和1,这就是一个二进制位元(bit),内存的最小单位。
DRAM的结构可谓是简单高效,每一个bit只需要一个晶体管加一个电容。但是电容不可避免的存在漏电现象,如果电荷不足会导致数据出错,因此电容必须被周期性的刷新(预充电),这也是DRAM的一大特点。而且电容的充放电需要一个过程,刷新频率不可能无限提升(频障),这就导致DRAM的频率很容易达到上限,即便有先进工艺的支持也收效甚微。
“上古”时代的FP/EDO内存,由于半导体工艺的限制,频率只有25MHz/50MHz,自SDR以后频率从66MHz一路飙升至133MHz,终于遇到了难以逾越的障碍。此后所诞生的DDR1/2/3系列,它们存储单元官方频率(JEDEC制定)始终在100MHz-200MHz之间徘徊,非官方(超频)频率也顶多在250MHz左右,很难突破300MHz。事实上高频内存的出错率很高、稳定性也得不到保证,除了超频跑简单测试外并无实际应用价值。
既然存储单元的频率(简称内核频率,也就是电容的刷新频率)不能无限提升,那么就只有在I/O(输入输出)方面做文章,通过改进I/O单元,这就诞生了DDR1/2/3、GDDR1/2/3/4/5等形形色色的内存种类。
通常大家所说的DDR-400、DDR2-800、DDR3-1600等,其实并非是内存的真正频率,而是业界约定俗成的等效频率,这些DDR1/2/3内存相当于老牌SDR内存运行在400MHz、800MHz、1600MHz时的带宽,因此频率看上去很夸张,其实真正的内核频率都只有200MHz而已!
内存有三种不同的频率指标,它们分别是核心频率、时钟频率和有效数据传输频率。核心频率即为内存Cell阵列(MemoryCellArray,即内部电容)的刷新频率,它是内存的真实运行频率;时钟频率即I/OBuffer(输入/输出缓冲)的传输频率;而有效数据传输频率就是指数据传送的频率(即等效频率)。
●SDR和DDR1/2/3全系列频率对照表:
内存数据预取技术示意图:并行转串行
这种存储阵列内部的实际位宽较大,但是数据输出位宽却比较小的设计,就是所谓的数据预取技术,它可以让内存的数据传输频率倍增。试想如果我们把一条细水管安装在粗水管之上,那么水流的喷射速度就会翻几倍。
明白了数据预取技术的原理之后,再来看看DDR1/2/3内存的定义,以及三种频率之间的关系,就豁然开朗了:
●SDRAM(SynchronousDRAM):同步动态随机存储器
之所以被称为“同步”,因为SDR内存的存储单元频率、I/O频率及数据传输率都是相同的,比如经典的PC133,三种频率都是133MHz。
SDR在一个时钟周期内只能读/写一次,只在时钟上升期读/写数据,当同时需要读取和写入时,就得等待其中一个动作完成之后才能继续进行下一个动作。
●DDR(DoubleDateRateSDRAM):双倍速率同步动态随机存储器
双倍是指在一个时钟周期内传输两次数据,在时钟的上升期和下降期各传输一次数据(通过差分时钟技术实现),在存储阵列频率不变的情况下,数据传输率达到了SDR的两倍,此时就需要I/O从存储阵列中预取2bit数据,因此I/O的工作频率是存储阵列频率的两倍。
DQ频率和I/O频率是相同的,因为DQ在时钟上升和下降研能传输两次数据,也是两倍于存储阵列的频率。
●DDR2(DDR2SDRAM):第二代双倍速率同步动态随机存储器
DDR2在DDR1的基础上,数据预取位数从2bit扩充至4bit,此时上下行同时传输数据(双倍)已经满足不了4bit预取的要求,因此I/O控制器频率必须加倍。
至此,在存储单元频率保持133-200MHz不变的情况下,DDR2的实际频率达到了266-400MHz,而(等效)数据传输率达到了533-800MHz。
●DDR3(DDR3SDRAM):第三代双倍速率同步动态随机存储器
DDR3就更容易理解了,数据预取位数再次翻倍到8bit,同理I/O控制器频率也加倍。此时,在存储单元频率保持133-200MHz不变的情况下,DDR3的实际频率达到了533-800MHz,而(等效)数据传输率高达1066-1600MHz。
综上可以看出,DDR1/2/3的发展是围绕着数据预取而进行的,同时也给I/O控制器造成了不小的压力,虽然存储单元的工作频率保持不变,但I/O频率以级数增长,我们可以看到DDR3的I/O频率已逼近1GHz大关,此时I/O频率成为了新的瓶颈,如果继续推出DDR4(注意不是GDDR4,两者完全不是同一概念,后文会有详细解释)的话,将会受到很多未知因素的制约,必须等待更先进的工艺或者新解决方案的出现才有可能延续DDR的生命。
H. 请问存储阵列的定义是什么呢谢谢!!!
磁盘阵列简称RAID(Rendant Arrays of Inexpensive Disks,RAID),有“价格便宜且多余的磁盘阵列”之意。其原理是利用数组方式来作磁盘组,配合数据分散排列的设计,提升数据的安全性。磁盘阵列主要针对硬盘,在容量及速度上,无法跟上CPU及内存的发展,提出改善方法。磁盘阵列是由很多便宜、容量较小、稳定性较高、速度较慢磁盘,组合成一个大型的磁盘组,利用个别磁盘提供数据所产生的加成效果来提升整个磁盘系统的效能。同时,在储存数据时,利用这项技术,将数据切割成许多区段,分别存放在各个硬盘上。
I. 请高手详解内存双通道和建磁盘阵列
主板_双通道内存技术
双通道内存技术其实是一种内存控制和管理技术,它依赖于芯片组的内存控制器发生作用,在理论上能够使两条同等规格内存所提供的带宽增长一倍。它并不是什么新技术,早就被应用于服务器和工作站系统中了,只是为了解决台式机日益窘迫的内存带宽瓶颈问题它才走到了台式机主板技术的前台。在几年前,英特尔公司曾经推出了支持双通道内存传输技术的i820芯片组,它与RDRAM内存构成了一对黄金搭档,所发挥出来的卓绝性能使其一时成为市场的最大亮点,但生产成本过高的缺陷却造成了叫好不叫座的情况,最后被市场所淘汰。由于英特尔已经放弃了对RDRAM的支持,所以目前主流芯片组的双通道内存技术均是指双通道DDR内存技术,主流双通道内存平台英特尔方面是英特尔 865、875系列,而AMD方面则是NVIDIA Nforce2系列。
双通道内存技术是解决CPU总线带宽与内存带宽的矛盾的低价、高性能的方案。现在CPU的FSB(前端总线频率)越来越高,英特尔 Pentium 4比AMD Athlon XP对内存带宽具有高得多的需求。英特尔 Pentium 4处理器与北桥芯片的数据传输采用QDR(Quad Data Rate,四次数据传输)技术,其FSB是外频的4倍。英特尔 Pentium 4的FSB分别是400、533、800MHz,总线带宽分别是3.2GB/sec,4.2GB/sec和6.4GB/sec,而DDR 266/DDR 333/DDR 400所能提供的内存带宽分别是2.1GB/sec,2.7GB/sec和3.2GB/sec。在单通道内存模式下,DDR内存无法提供CPU所需要的数据带宽从而成为系统的性能瓶颈。而在双通道内存模式下,双通道DDR 266、DDR 333、DDR 400所能提供的内存带宽分别是4.2GB/sec,5.4GB/sec和6.4GB/sec,在这里可以看到,双通道DDR 400内存刚好可以满足800MHz FSB Pentium 4处理器的带宽需求。而对AMD Athlon XP平台而言,其处理器与北桥芯片的数据传输技术采用DDR(Double Data Rate,双倍数据传输)技术,FSB是外频的2倍,其对内存带宽的需求远远低于英特尔 Pentium 4平台,其FSB分别为266、333、400MHz,总线带宽分别是2.1GB/sec,2.7GB/sec和3.2GB/sec,使用单通道的DDR 266、DDR 333、DDR 400就能满足其带宽需求,所以在AMD K7平台上使用双通道DDR内存技术,可说是收效不多,性能提高并不如英特尔平台那样明显,对性能影响最明显的还是采用集成显示芯片的整合型主板。
NVIDIA推出的nForce芯片组是第一个把DDR内存接口扩展为128-bit的芯片组,随后英特尔在它的E7500服务器主板芯片组上也使用了这种双通道DDR内存技术,SiS和VIA也纷纷响应,积极研发这项可使DDR内存带宽成倍增长的技术。但是,由于种种原因,要实现这种双通道DDR(128 bit的并行内存接口)传输对于众多芯片组厂商来说绝非易事。DDR SDRAM内存和RDRAM内存完全不同,后者有着高延时的特性并且为串行传输方式,这些特性决定了设计一款支持双通道RDRAM内存芯片组的难度和成本都不算太高。但DDR SDRAM内存却有着自身局限性,它本身是低延时特性的,采用的是并行传输模式,还有最重要的一点:当DDR SDRAM工作频率高于400MHz时,其信号波形往往会出现失真问题,这些都为设计一款支持双通道DDR内存系统的芯片组带来不小的难度,芯片组的制造成本也会相应地提高,这些因素都制约着这项内存控制技术的发展。
普通的单通道内存系统具有一个64位的内存控制器,而双通道内存系统则有2个64位的内存控制器,在双通道模式下具有128bit的内存位宽,从而在理论上把内存带宽提高一倍。虽然双64位内存体系所提供的带宽等同于一个128位内存体系所提供的带宽,但是二者所达到效果却是不同的。双通道体系包含了两个独立的、具备互补性的智能内存控制器,理论上来说,两个内存控制器都能够在彼此间零延迟的情况下同时运作。比如说两个内存控制器,一个为A、另一个为B。当控制器B准备进行下一次存取内存的时候,控制器A就在读/写主内存,反之亦然。两个内存控制器的这种互补“天性”可以让等待时间缩减50%。双通道DDR的两个内存控制器在功能上是完全一样的,并且两个控制器的时序参数都是可以单独编程设定的。这样的灵活性可以让用户使用二条不同构造、容量、速度的DIMM内存条,此时双通道DDR简单地调整到最低的内存标准来实现128bit带宽,允许不同密度/等待时间特性的DIMM内存条可以可靠地共同运作。
支持双通道DDR内存技术的台式机芯片组,英特尔平台方面有英特尔的865P、865G、865GV、865PE、875P以及之后的915、925系列;VIA的PT880,ATI的Radeon 9100 IGP系列,SIS的SIIS 655,SIS 655FX和SIS 655TX;AMD平台方面则有VIA的KT880,NVIDIA的nForce2 Ultra 400,nForce2 IGP,nForce2 SPP及其以后的芯片。
AMD的64位CPU,由于集成了内存控制器,因此是否支持内存双通道看CPU就可以。目前AMD的台式机CPU,只有939接口的才支持内存双通道,754接口的不支持内存双通道。除了AMD的64位CPU,其他计算机是否可以支持内存双通道主要取决于主板芯片组,支持双通道的芯片组上边有描述,也可以查看。此外有些芯片组在理论上支持不同容量的内存条实现双通道,不过实际还是建议尽量使用参数一致的两条内存条。
内存双通道一般要求按主板上内存插槽的颜色成对使用,此外有些主板还要在BIOS做一下设置,一般主板说明书会有说明。当系统已经实现双通道后,有些主板在开机自检时会有提示,可以仔细看看。由于自检速度比较快,所以可能看不到。因此可以用一些软件查看,很多软件都可以检查,比如cpu-z,比较小巧。在“memory”这一项中有“channels”项目,如果这里显示“Dual”这样的字,就表示已经实现了双通道。两条256M的内存构成双通道效果会比一条512M的内存效果好,因为一条内存无法构成双通道。
磁盘阵列技术
磁盘阵列(DiscArray)是由许多台磁盘机或光盘机按一定的规则,如分条(Striping)、分块(Declustering)、交叉存取(Interleaving)等组成一个快速,超大容量的外存储器子系统。它在阵列控制器的控制和管理下,实现快速,并行或交叉存取,并有较强的容错能力。从用户观点看,磁盘阵列虽然是由几个、几十个甚至上百个盘组成,但仍可认为是一个单一磁盘,其容量可以高达几百~上千千兆字节,因此这一技术广泛为多媒体系统所欢迎。
盘阵列的全称是:
RendanArrayofInexpensiveDisk,简称RAID技术。它是1988年由美国加州大学Berkeley分校的DavidPatterson教授等人提出来的磁盘冗余技术。从那时起,磁盘阵列技术发展得很快,并逐步走向成熟。现在已基本得到公认的有下面八种系列。
1.RAID0(0级盘阵列)
RAID0又称数据分块,即把数据分布在多个盘上,没有容错措施。其容量和数据传输率是单机容量的N倍,N为构成盘阵列的磁盘机的总数,I/O传输速率高,但平均无故障时间MTTF(MeanTimeToFailure)只有单台磁盘机的N分之一,因此零级盘阵列的可靠性最差。
2.RAID1(1级盘阵列)
RAID1又称镜像(Mirror)盘,采用镜像容错来提高可靠性。即每一个工作盘都有一个镜像盘,每次写数据时必须同时写入镜像盘,读数据时只从工作盘读出。一旦工作盘发生故障立即转入镜像盘,从镜像盘中读出数据,然后由系统再恢复工作盘正确数据。因此这种方式数据可以重构,但工作盘和镜像盘必须保持一一对应关系。这种盘阵列可靠性很高,但其有效容量减小到总容量一半以下。因此RAID1常用于对出错率要求极严的应用场合,如财政、金融等领域。
3.RAID2(2级盘阵列)
RAID2又称位交叉,它采用汉明码作盘错检验,无需在每个扇区之后进行CRC(CyclicReDundancycheck)检验。汉明码是一种(n,k)线性分组码,n为码字的长度,k为数据的位数,r为用于检验的位数,故有:n=2r-1r=n-k
因此按位交叉存取最有利于作汉明码检验。这种盘适于大数据的读写。但冗余信息开销还是太大,阻止了这类盘的广泛应用。
4.RAID3(3级盘阵列)
RAID3为单盘容错并行传输阵列盘。它的特点是将检验盘减小为一个(RAID2校验盘为多个,DAID1检验盘为1比1),数据以位或字节的方式存于各盘(分散记录在组内相同扇区号的各个磁盘机上)。它的优点是整个阵列的带宽可以充分利用,使批量数据传输时间减小;其缺点是每次读写要牵动整个组,每次只能完成一次I/O。
5.RAID4(4级盘阵列)
RAID4是一种可独立地对组内各盘进行读写的阵列。其校验盘也只有一个。
RAID4和RAID3的区别是:RAID3是按位或按字节交叉存取,而RAID4是按块(扇区)存取,可以单独地对某个盘进行操作,它无需象RAID3那样,那怕每一次小I/O操作也要涉及全组,只需涉及组中两台磁盘机(一台数据盘,一台检验盘)即可。从而提高了小量数据的I/O速率。
6.RAID5(5级盘阵列)
RAID5是一种旋转奇偶校验独立存取的阵列。它和RAID1、2、3、4各盘阵列的不同点,是它没有固定的校验盘,而是按某种规则把其冗余的奇偶校验信息均匀地分布在阵列所属的所有磁盘上。于是在同一台磁盘机上既有数据信息也有校验信息。这一改变解决了争用校验盘的问题,因此DAID5内允许在同一组内并发进行多个写操作。所以RAID5即适于大数据量的操作,也适于各种事务处理。它是一种快速,大容量和容错分布合理的磁盘阵列。
7.RAID6(6级盘阵列)
RAID6是一种双维奇偶校验独立存取的磁盘阵列。它的冗余的检、纠错信息均匀分布在所有磁盘上,而数据仍以大小可变的块以交叉方式存于各盘。这类盘阵列可容许双盘出错。
8.RAID7(7级盘阵列)
RAID7是在RAID6的基础上,采用了cache技术,它使得传输率和响应速度都有较大的提高。Cache是一种高速缓冲存储器,即数据在写入磁盘阵列以前,先写入cache中。一般采用cache分块大小和磁盘阵列中数据分块大小相同,即一块cache分块对应一块磁盘分块。在写入时将数据分别写入两个独立的cache,这样即使其中有一个cache出故障,数据也不会丢失。写操作将直接在cache级响应,然后再转到磁盘阵列。数据从cache写到磁盘阵列时,同一磁道的数据将在一次操作中完成,避免了不少块数据多次写的问题,提高了速度。在读出时,主机也是直接从cache中读出,而不是从阵列盘上读取,减少与磁盘读操作次数,这样比较充分地利用了磁盘带宽。
这样cache和磁盘阵列技术的结合,弥补了磁盘阵列的不足(如分块写请求响应差等缺陷),从而使整个系统以高效、快速、大容量、高可靠以及灵活、方便的存储系统提供给用户,从而满足了当前的技术发展的需要,尤其是多媒体系统的需要。
解析磁盘阵列的关键技术
存储技术在计算机技术中受到广泛关注,服务器存储技术更是业界关心的热点。一谈到服务器存储技术,人们几乎立刻与SCSI(Small Computer Systems Interface)技术联系在一起。尽管廉价的IDE硬盘在性能、容量等关键技术指标上已经大大地提高,可以满足甚至超过原有的服务器存储设备的需求。但由于Internet的普及与高速发展,网络服务器的规模也变得越来越大。同时,Internet不仅对网络服务器本身,也对服务器存储技术提出了苛刻要求。无止境的市场需求促使服务器存储技术飞速发展。而磁盘阵列是服务器存储技术中比较成熟的一种,也是在市场上比较多见的大容量外设之一。
在高端,传统的存储模式无论在规模上,还是安全上,或是性能上,都无法满足特殊应用日益膨胀的存储需求。诸如存储局域网(SAN)等新的技术或应用方案不断涌现,新的存储体系结构和解决方案层出不穷,服务器存储技术由直接连接存储(DAS)向存储网络技术(NAS)方面扩展。在中低端,随着硬件技术的不断发展,在强大市场需求的推动下,本地化的、基于直接连接的磁盘阵列存储技术,在速度、性能、存储能力等方面不断地迈上新台阶。并且,为了满足用户对存储数据的安全、存取速度和超大的存储容量的需求,磁盘阵列存储技术也从讲求技术创新、重视系统优化,以技术方案为主导的技术推动期逐渐进入了强调工业标准、着眼市场规模,以成熟产品为主导的产品普及期。
回顾磁盘阵列的发展历程,一直和SCSI技术的发展紧密关联,一些厂商推出的专有技术,如IBM的SSA(Serial Storage Architecture)技术等,由于兼容性和升级能力不尽如人意,在市场上的影响都远不及SCSI技术广泛。由于SCSI技术兼容性好,市场需求旺盛,使得SCSI技术发展很快。从最原始5MB/s传输速度的SCSI-1,一直发展到现在LVD接口的160MB/s传输速度的Ultra 160 SCSI,320MB/s传输速度的Ultra 320 SCSI接口也将在2001年出现(见表1)。从当前市场看,Ultra 3 SCSI技术和RAID(Rendant Array of Inexpensive Disks)技术还应是磁盘阵列存储的主流技术。
SCSI技术
SCSI本身是为小型机(区别于微机而言)定制的存储接口,SCSI协议的Version 1 版本也仅规定了5MB/s传输速度的SCSI-1的总线类型、接口定义、电缆规格等技术标准。随着技术的发展,SCSI协议的Version 2版本作了较大修订,遵循SCSI-2协议的16位数据带宽,高主频的SCSI存储设备陆续出现并成为市场的主流产品,也使得SCSI技术牢牢地占据了服务器的存储市场。SCSI-3协议则增加了能满足特殊设备协议所需要的命令集,使得SCSI协议既适应传统的并行传输设备,又能适应最新出现的一些串行设备的通讯需要,如光纤通道协议(FCP)、串行存储协议(SSP)、串行总线协议等。渐渐地,“小型机”的概念开始弱化,“高性能计算机”和“服务器”的概念在人们的心目中得到强化,SCSI一度成为用户从硬件上来区分“服务器”和PC机的一种标准。
通常情况下,用户对SCSI总线的关心放在硬件上,不同的SCSI的工作模式意味着有不同的最大传输速度。如40MB/s的Ultra SCSI、160MB/s的Ultra 3 SCSI等等。但最大传输速度并不代表设备正常工作时所能达到的平均访问速度,也不意味着不同SCSI工作模式之间的访问速度存在着必然的“倍数”关系。SCSI控制器的实际访问速度与SCSI硬盘型号、技术参数,以及传输电缆长度、抗干扰能力等因素关系密切。提高SCSI总线效率必须关注SCSI设备端的配置和传输线缆的规范和质量。可以看出,Ultra 3模式下获得的实际访问速度还不到Ultra Wide模式下实际访问速度的2倍。
一般说来,选用高速的SCSI硬盘、适当增加SCSI通道上连接硬盘数、优化应用对磁盘数据的访问方式等,可以大幅度提高SCSI总线的实际传输速度。尤其需要说明的是,在同样条件下,不同的磁盘访问方式下获得的SCSI总线实际传输速度可以相差几十倍,对应用的优化是获得高速存储访问时必须关注的重点,而这却常常被一些用户所忽视。按4KB数据块随机访问6块SCSI硬盘时,SCSI总线的实际访问速度为2.74MB/s,SCSI总线的工作效率仅为总线带宽的1.7%;在完全不变的条件下,按256KB的数据块对硬盘进行顺序读写,SCSI总线的实际访问速度为141.2MB/s,SCSI总线的工作效率高达总线带宽的88%。
随着传输速度的提高,信号传输过程中的信号衰减和干扰问题显得越来越突出,终结器在一定程度上可以起到降低信号波反射,改善信号质量的作用。同时,LVD(Low-Voltage Differential)技术的应用也越来越多。LVD工作模式是和SE(Single-Ended)模式相对应的,它可以很好地抵抗传输干扰,延长信号的传输距离。同时,Ultra 2 SCSI和Ultra 3 SCSI模式也通过采用专用的双绞型SCSI电缆来提高信号传输的质量。
在磁盘阵列的概念中,大容量硬盘并不是指单个硬盘容量大,而是指将单个硬盘通过RAID技术,按RAID 级别组合成更大容量的硬盘。所以在磁盘阵列技术中,RAID技术是比较关键的,同时,根据所选用的RAID级别的不同,得到的“大硬盘”的功能也有不同。
RAID是一项非常成熟的技术,但由于其价格比较昂贵,配置也不方便,缺少相对专业的技术人员,所以应用并不十分普及。据统计,全世界75%的服务器系统目前没有配置RAID。由于服务器存储需求对数据安全性、扩展性等方面的要求越来越高,RAID市场的开发潜力巨大。RAID技术是一种工业标准,各厂商对RAID级别的定义也不尽相同。目前对RAID级别的定义可以获得业界广泛认同的只有4种,RAID 0、RAID 1、RAID 0+1和RAID 5。
RAID 0是无数据冗余的存储空间条带化,具有低成本、极高读写性能、高存储空间利用率的RAID级别,适用于Video / Audio信号存储、临时文件的转储等对速度要求极其严格的特殊应用。但由于没有数据冗余,其安全性大大降低,构成阵列的任何一块硬盘损坏都将带来数据灾难性的损失。所以,在RAID 0中配置4块以上的硬盘,对于一般应用来说是不明智的。
RAID 1是两块硬盘数据完全镜像,安全性好,技术简单,管理方便,读写性能均好。但其无法扩展(单块硬盘容量),数据空间浪费大,严格意义上说,不应称之为“阵列”。
RAID 0+1综合了RAID 0和RAID 1的特点,独立磁盘配置成RAID 0,两套完整的RAID 0互相镜像。它的读写性能出色,安全性高,但构建阵列的成本投入大,数据空间利用率低,不能称之为经济高效的方案。
RAID 5是目前应用最广泛的RAID技术。各块独立硬盘进行条带化分割,相同的条带区进行奇偶校验(异或运算),校验数据平均分布在每块硬盘上。以n块硬盘构建的RAID 5阵列可以有n-1块硬盘的容量,存储空间利用率非常高(见图6)。任何一块硬盘上数据丢失,均可以通过校验数据推算出来。它和RAID 3最大的区别在于校验数据是否平均分布到各块硬盘上。RAID 5具有数据安全、读写速度快,空间利用率高等优点,应用非常广泛,但不足之处是1块硬盘出现故障以后,整个系统的性能大大降低。
对于RAID 1、RAID 0+1、RAID 5阵列,配合热插拔(也称热可替换)技术,可以实现数据的在线恢复,即当RAID阵列中的任何一块硬盘损坏时,不需要用户关机或停止应用服务,就可以更换故障硬盘,修复系统,恢复数据,对实现HA(High Availability)高可用系统具有重要意义。
各厂商还在不断推出各种RAID级别和标准。例如更高安全性的,从RAID控制器开始镜像的RAID;更快读写速度的,为构成RAID的每块硬盘配置CPU和Cache的RAID等等,但都不普及。用IDE硬盘构建RAID的技术是新出现的一个技术方向,对市场影响也较大,其突出优点就是构建RAID阵列非常廉价。目前IDE RAID可以支持RAID 0、RAID 1和RAID 0+1三个级别,最多支持4块IDE硬盘。由于受IDE设备扩展性的限制,同时,也由于IDE设备也缺乏热可替换的技术支持的原因,IDE RAID的应用还不多。
总之,发展是永恒的主题,在服务器存储技术领域也不例外。一方面,一些巨头厂商尝试推出新的概念或标准,来领导服务器及存储技术的发展方向,较有代表性的如Intel力推的IA-64架构及存储概念;另一方面,致力于存储的专业厂商以现有技术和工业标准为基础,推动SCSI、RAID、Fibre Channel等基于现有存储技术和方案快速更新和发展。在市场经济条件下,检验技术发展的唯一标准是市场的认同。市场呼唤好的技术,而新的技术必须起到推动市场向前发展作用时才能被广泛接受和承认。随着高性能计算机市场的发展,高性能比、高可靠性、高安全性的存储新技术也会不断涌现。
现在市场上的磁盘阵列产品有很多,用户在选择磁盘阵列产品的过程中,也要根据自己的需求来进行选择,现在列举几个磁盘阵列产品,同时也为需要磁盘阵列产品的用户提供一些选择。表2列出了几种磁盘阵列的主要技术指标。
--------------------------------------------------------------------------------
小知识:磁盘阵列的可靠性和可用性
可靠性,指的是硬盘在给定条件下发生故障的概率。可用性,指的是硬盘在某种用途中可能用的时间。磁盘阵列可以改善硬盘系统的可靠性。从表3中可以看到RAID硬盘子系统与单个硬盘子系统的可靠性比较。
此外,在系统的可用性方面,单一硬盘系统的可用性比没有数据冗余的磁盘阵列要好,而冗余磁盘阵列的可用性比单个硬盘要好得多。这是因为冗余磁盘阵列允许单个硬盘出错,而继续正常工作;一个硬盘故障后的系统恢复时间也大大缩短(与从磁带恢复数据相比);冗余磁盘阵列发生故障时,硬盘上的数据是故障当时的数据,替换后的硬盘也将包含故障时的数据。但是,要得到完全的容错性能,计算机硬盘子系统的其它部件也必须有冗余。
J. 计算机是如何通过内存进行数据的存储
首先,需要由一些半导体组成门电路,可以完成与、或、异或等电路逻辑。
然后,由门电路组成一个基本的存储单元,这个存储单元可以稳定地保持低电平和高电平两个状态(0和1),这就是内存的一个bit
最后,把大量的这种存储单元组成阵列,通过纵横方向的控制电路来控制每个bit的电平状态,用来表示0和1,从而实现信息的存储。
物理介质上,所有这些存储单元是被蚀刻在硅片上,做成各种封装好的内存芯片(内存颗粒),再由厂家制作内存条电路板,把若干这样的芯片集中在一块板子上,成为内存条。
大体就是这样。