① 什么是冗余备份,及其作用
所谓冗余备份,就是多准备一份或几份,以备不时之需。例如冗余备份服务器,就是2台服务器互为备份,一台故障了,另一台立刻接替。又如冗余备份电源,就是一台设备上安装2个或2个以上的电源模块,其中一个出故障了,并不会导致设备瘫痪。
② 云计算的出现,给容灾备份带来了哪些好处
一般信息系统数据备份主要完成以下几个目的:
1、 完成数据中心各服务器的数据安全集中存储。
2、 完成各服务器数据的集中管理。
3、 完成数据的本地、远程策略备份。
4、 数据备份时,要求备份安全性高(操作人员、数据传输、数据存放)不发生数据丢失、泄密。
5、 数据本地存储的安全性与高可用性。
会给用户带来的好处:
1、保证备份作业是完整的、可用的并具有很好的一致性。在灾难性事件发生后,你能快速的把数据库恢复到最新的备份的状态。
2、在执行操作的过程中,数据库不需要停止,这可以帮助那些需要7x24小时在线业务系统来说是非常重要的。
③ 如何实现数据存储的管理
:数据存储备份和存储管理源于上世纪70年代的终端/主机计算模式,当时由于数据集中在主机上,因此,易管理的海量存储设备——磁带库是当时必备的设备。80年代以后,由于PC的发展,尤其是90年代应用最广的客户机/服务器模式的普及以及互联网的迅猛发展,使得存储容量、存储模式和存储要求都发生了根本性的变化,一些新兴的存储技术迅速崛起,为构建一个更安全的信息时代提供了更多的选择。
编者按如何确保所有数据能够得到可靠备份,及时进行灾难恢复是存储管理软件的核心任务。此外存储管理软件还存在以下一些基本功能,诸如改进系统和应用I/O性能及存储管理能力,提高数据和应用系统的高可用性,减少由于各种原因中断数据存取或者应用系统宕机的时间,实现技术有分级存储管理(HSM)、ClusterServer(集群服务器)等。
首先是能提供一些可以识别和分析存储访问模式的VolumeManager工具。VolumeManager通过复杂的磁盘配置能均衡I/O负载,在不影响应用的同时能够优化应用数据的布局。它还可将数据条形散放到多个物理盘上以提高性能,同时还具有在不中断应用的情况下,识别和消除性能瓶颈的能力,从而增强系统和应用的性能。另外,VolumeManager在减少系统中断时间、增加数据完整性等方面也有不俗表现。它允许对磁盘进行在线的管理和更改配置,减少对系统产生极大影响的停机时间,同时利用冗余技术提高数据可用性,防止数据被丢失和破坏。
其次还有一个非常重要的可快速恢复的日志式文件系统FileSystem,它能在不间断数据访问的条件下,对文件作在线备份,并在系统重启或崩溃前允许访问数据并恢复文件,从而大大提高用户和管理员的生产效率。FileSystem在系统崩溃前还能将未完成的数据记录在一个事件日志中,利用恢复程序重现,从而保持了数据的完整性。
VolumeManager和FileSystem都工作在操作系统一级,可实现集群与故障恢复、自动管理、备份与HSM以及基于浏览器的远程管理等。两者有机结合后,利用双方特有的对磁盘和数据的管理能力,能给企业的系统提供尽可能高的性能、可用性及可管理性。
在此基础之上便是整个存储管理的核心任务——备份技术。
数据存储备份技术一般包含硬件技术及软件技术等,硬件技术主要是磁带机技术,软件技术主要是通用和专用备份软件技术等。我们主要从软件技术方面加以讨论。备份软件技术在整个数据存储备份过程中具有相当的重要性,因为它不仅关系到是否支持磁带的各种先进功能,而且在很大程度上决定着备份的效率。最好的备份软件不一定就是操作系统所提供的备份功能,很多厂商都提供了许多专业的备份软件。专业备份软件能通过优化数据传输率,即可以自动以较高的传输率进行数据传输。这不仅能缩短备份时间、提高数据存储备份速度,而且对磁带机设备本身也有好处。另外,专业备份软件还支持新磁带机技术,如HP的TapeAlert技术,差不多所有主流专业备份软件均提供支持。
对于存储模式来说比较常见的有DAS、NAS和SAN等。DAS(DirectAttachedStorage-直接连接存储)是指将存储设备通过SCSI接口或光纤通道直接连接到一台计算机上。当服务器在地理上比较分散、很难通过远程连接进行互连时,直接连接存储是比较好的解决方案。直接连接存储也可帮助企业继续保留已有的传输速率并不很高的网络系统。
网络正成为主要的信息处理模式,需要存储的数据大量增加,数据作为取得竞争优势的战略性资产其重要性在增加,是目前发展的趋势。NAS和SAN的出现正响应了这一点。NAS就是网络连接存储,即将存储设备通过标准的网络拓扑结构(例如以太网),连接到一群计算机上。它的重点在于帮助工作组和部门级机构解决迅速增加存储容量的需求。这种方法从两方面改善了数据的可用性。第一,即使相应的应用服务器不再工作了,仍然可以读出数据。第二,简易服务器本身不会崩溃,因为它避免了引起服务器崩溃的首要原因,即应用软件引起的问题。另外,NAS产品是真正即插即用的产品,其设备的物理位置非常灵活。
SAN(存储区域网络)通过光纤通道连接到一群计算机上。在该网络中提供了多主机连接,但并非通过标准的网络拓扑,并且通过同一物理通道支持广泛使用的SCSI和IP协议。它的结构允许任何服务器连接到任何存储阵列,这样不管数据置放在哪里,服务器都可直接存取所需的数据。SAN解决方案是从基本功能剥离出存储功能,所以运行备份操作就无需考虑它们对网络总体性能的影响。这个方案也使得管理及集中控制实现简化,特别是对于全部存储设备都集群在一起的时候。
集群通常用于加强应用软件的可用性与可扩展性。某些集群架构技术会加入单一系统印象的概念,可从单点以单一系统的方式来管理多台计算机。集群服务器可支持多达上百台互相连接的服务器,结合为松散结合的单位来执行作业,保护彼此的应用软件免于故障。由于集群服务器可完全整合应用软件服务架构,因此可建置高效的应用软件执行环境,即使整个系统出现故障,终端计算机都还可以使用几乎所有的应用软件。集群服务器软件包括引擎、编译器、负载计算器、代理、指令与图形化系统管理接口等组件。集群化运算环境的最大优势是卓越的数据处理能力。原则上,任何类型的多重主机架构存储设备,包括直接连接的磁盘,都可以用来当作集群数据存储设备。为求得最大的系统可用性,最适合使用拥有多重主机存取路径的容错或高可用性存储子系统。
分层次的管理方式可以解决存储容量不断增长导致的如何有效扩充容量的问题。在很多情况下,它更多地用于分布式网络环境中。分级,其实就是意味着用不同的介质来实现存储,如RAID系统、光存储设备、磁带等,每种存储设备都有其不同的物理特性和不同的价格。例如,要备份的时候,备份文件一般存储在速度相对比较慢、容量相对比较大、价格相对比较低的存储设备上如磁带,这样做很经济实用。那么如何实现分级呢?从原理上来讲,分级存储是从在线系统上迁移数据的一种方法。文件由HSM系统选择进行迁移,然后被拷贝到HSM介质上。当文件被正确拷贝后,一个和原文件相同名字的标志文件被创建,但它只占用比原文件小得多的磁盘空间。以后,当用户访问这个标志文件时,HSM系统能将原始文件从正确的介质上恢复过来。分级存储可以有不同的实施方式,HSM根据两级或三级体系将动态迁移/回迁的数据分类,从而实现分级存储。
存储应用的深入必然带来对整体解决方案的需求,这不仅包括硬件,还包括相应的软件以及服务。一个软硬件兼容的融合应用环境是大势所趋。比如,存储虚拟化的提出就证明了这一趋势。因为它有利于提高存储利用率、简化管理和降低成本,构建一个融合的存储应用大环境。总之,随着网络技术的发展、计算机能力的不断提高,数据量也在不断膨胀。数据备份与恢复等存储技术方面的问题显得越来越重要,存储管理技术的发展必将引起业界的高度重视。
相关链接:当前主流的存储介质
磁盘阵列、磁带库
磁盘阵列的最大特点是数据存取速度特别快,其主要功能是可提高网络数据的可用性及存储容量,并将数据有选择性地分布在多个磁盘上,从而提高系统的数据吞吐率。另外,磁盘阵列还能够免除单块硬盘故障所带来的灾难后果,通过把多个较小容量的硬盘连在智能控制器上,可增加存储容量。磁盘阵列是一种高效、快速、易用的网络存储备份设备。
广义的磁带库产品包括自动加载磁带机和磁带库。自动加载磁带机和磁带库实际上是将磁带和磁带机有机结合组成的。自动加载磁带机是一个位于单机中的磁带驱动器和自动磁带更换装置,它可以从装有多盘磁带的磁带匣中拾取磁带并放入驱动器中,或执行相反的过程。自动加载磁带机能够支持例行备份过程,自动为每日的备份工作装载新的磁带。一个拥有工作组服务器的小公司或分理处可以使用自动加载磁带机来自动完成备份工作。
磁带库是像自动加载磁带机一样的基于磁带的备份系统,它能够提供同样的基本自动备份和数据恢复功能,但同时具有更先进的技术特点。它的存储容量可达到数百PB(1PB=100万GB),可以实现连续备份、自动搜索磁带,也可以在驱动管理软件控制下实现智能恢复、实时监控和统计,整个数据存储备份过程完全摆脱了人工干涉。磁带库不仅数据存储量大得多,而且在备份效率和人工占用方面拥有无可比拟的优势。在网络系统中,磁带库通过SAN(存储局域网络)系统可形成网络存储系统,为企业存储提供有力保障,很容易完成远程数据访问、数据存储备份,或通过磁带镜像技术实现多磁带库备份,无疑是数据仓库、ERP等大型网络应用的良好存储设备。
光盘塔、光盘库和光盘网络镜像服务器
光盘不仅存储容量巨大,而且成本低、制作简单、体积小,更重要的是其信息可以保存100年至300年。光盘塔由几台或十几台CD-ROM驱动器并联构成,可通过软件来控制某台光驱的读写操作。光盘塔可以同时支持几十个到几百个用户访问信息。光盘库也叫自动换盘机,它利用机械手从机柜中选出一张光盘送到驱动器进行读写。它的库容量极大,机柜中可放几十片甚至上百片光盘。光盘库的特点是:安装简单、使用方便,并支持几乎所有的常见网络操作系统及各种常用通信协议。
光盘网络镜像服务器不仅具有大型光盘库的超大存储容量,而且还具有与硬盘相同的访问速度,其单位存储成本(分摊到每张光盘上的设备成本)大大低于光盘库和光盘塔,因此光盘网络镜像服务器已开始取代光盘库和光盘塔,逐渐成为光盘网络共享设备中的主流产品。
④ 数据库技术的国内外发展与应用现状
数据库技术是现代信息科学与技术的重要组成部分,是计算机数据处理与信息管理系统的核心。数据库技术研究和解决了计算机信息处理过程中大量数据有效地组织和存储的问题,在数据库系统中减少数据存储冗余、实现数据共享、保障数据安全以及高效地检索数据和处理数据。
随着计算机技术与网络通信技术的发展,数据库技术已成为信息社会中对大量数据进行组织与管理的重要技术手段及软件技术,是网络信息化管理系统的基础。本章主要介绍数据库技术的应用与发展、关系模型的基本概念、关系数据库的设计理论及数据库设计方法等内容,是学习和掌握现代数据库技术的基础。
1.1 数据库技术的发展与应用
从20世纪60年代末期开始到现在,数据库技术已经发展了30多年。在这30多年的历程中,人们在数据库技术的理论研究和系统开发上都取得了辉煌的成就,而且已经开始对新一代数据库系统的深入研究。数据库系统已经成为现代计算机系统的重要组成部分。
1.1.1 数据库技术与信息技术
信息技术(Information Technology,IT)是当今使用频率最高的名词之一,它随着计算机技术在工业、农业以及日常生活中的广泛应用,已经被越来越多的个人和企业作为自己赶超世界潮流的标志之一。而数据库技术则是信息技术中一个重要的支撑。没有数据库技术,人们在浩瀚的信息世界中将显得手足无措。
数据库技术是计算机科学技术的一个重要分支。从20世纪50年代中期开始,计算机应用从科学研究部门扩展到企业管理及政府行政部门,人们对数据处理的要求也越来越高。1968年,世界上诞生了第一个商品化的信息管理系统IMS(Information Management System),从此,数据库技术得到了迅猛发展。在互联网日益被人们接受的今天,Internet又使数据库技术、知识、技能的重要性得到了充分的放大。现在数据库已经成为信息管理、办公自动化、计算机辅助设计等应用的主要软件工具之一,帮助人们处理各种各样的信息数据。
1.1.2 数据库技术的应用及特点
数据库最初是在大公司或大机构中用作大规模事务处理的基础。后来随着个人计算机的普及,数据库技术被移植到PC机(Personal Computer,个人计算机)上,供单用户个人数据库应用。接着,由于PC机在工作组内连成网,数据库技术就移植到工作组级。现在,数据库正在Internet和内联网中广泛使用。
20世纪60年代中期,数据库技术是用来解决文件处理系统问题的。当时的数据库处理技术还很脆弱,常常发生应用不能提交的情况。20世纪70年代关系模型的诞生为数据库专家提供了构造和处理数据库的标准方法,推动了关系数据库的发展和应用。1979年,Ashton-Tate公司引入了微机产品dBase Ⅱ,并称之为关系数据库管理系统,从此数据库技术移植到了个人计算机上。20世纪80年代中期到后期,终端用户开始使用局域网技术将独立的计算机连接成网络,终端之间共享数据库,形成了一种新型的多用户数据处理,称为客户机/服务器数据库结构。现在,数据库技术正在被用来同Internet技术相结合,以便在机构内联网、部门局域网甚至WWW上发布数据库数据。
1.1.3 数据库技术发展历史
数据模型是数据库技术的核心和基础,因此,对数据库系统发展阶段的划分应该以数据模型的发展演变作为主要依据和标志。按照数据模型的发展演变过程,数据库技术从开始到现在短短的30年中,主要经历了三个发展阶段:第一代是网状和层次数据库系统,第二代是关系数据库系统,第三代是以面向对象数据模型为主要特征的数据库系统。数据库技术与网络通信技术、人工智能技术、面向对象程序设计技术、并行计算技术等相互渗透、有机结合,成为当代数据库技术发展的重要特征。
1. 第一代数据库系统
第一代数据库系统是20世纪70年代研制的层次和网状数据库系统。层次数据库系统的典型代表是1969年IBM公司研制出的层次模型的数据库管理系统IMS。20世纪60年代末70年代初,美国数据库系统语言协会CODASYL(Conference on Data System Language)下属的数据库任务组DBTG(Data Base Task Group)提出了若干报告,被称为DBTG报告。DBTG报告确定并建立了网状数据库系统的许多概念、方法和技术,是网状数据库的典型代表。在DBTG思想和方法的指引下数据库系统的实现技术不断成熟,开发了许多商品化的数据库系统,它们都是基于层次模型和网状模型的。
可以说,层次数据库是数据库系统的先驱,而网状数据库则是数据库概念、方法、技术的奠基者。
2. 第二代数据库系统
第二代数据库系统是关系数据库系统。1970年IBM公司的San Jose研究试验室的研究员Edgar F. Codd发表了题为《大型共享数据库数据的关系模型》的论文,提出了关系数据模型,开创了关系数据库方法和关系数据库理论,为关系数据库技术奠定了理论基础。Edgar F. Codd于1981年被授予ACM图灵奖,以表彰他在关系数据库研究方面的杰出贡献。
20世纪70年代是关系数据库理论研究和原型开发的时代,其中以IBM公司的San Jose研究试验室开发的System R和Berkeley大学研制的Ingres为典型代表。大量的理论成果和实践经验终于使关系数据库从实验室走向了社会,因此,人们把20世纪70年代称为数据库时代。20世纪80年代几乎所有新开发的系统均是关系型的,其中涌现出了许多性能优良的商品化关系数据库管理系统,如DB2、Ingres、Oracle、Informix、Sybase等。这些商用数据库系统的应用使数据库技术日益广泛地应用到企业管理、情报检索、辅助决策等方面,成为实现和优化信息系统的基本技术。
3. 第三代数据库系统
从20世纪80年代以来,数据库技术在商业上的巨大成功刺激了其他领域对数据库技术需求的迅速增长。这些新的领域为数据库应用开辟了新的天地,并在应用中提出了一些新的数据管理的需求,推动了数据库技术的研究与发展。
1990年高级DBMS功能委员会发表了《第三代数据库系统宣言》,提出了第三代数据库管理系统应具有的三个基本特征:
l 应支持数据管理、对象管理和知识管理。
l 必须保持或继承第二代数据库系统的技术。
l 必须对其他系统开放。
面向对象数据模型是第三代数据库系统的主要特征之一;数据库技术与多学科技术的有机结合也是第三代数据库技术的一个重要特征。分布式数据库、并行数据库、工程数据库、演绎数据库、知识库、多媒体库、模糊数据库等都是这方面的实例。
1.1.4 数据库系统访问技术
目前访问数据库服务器的主流标准接口主要有ODBC、OLE DB和ADO。下面分别对这三种接口进行概要介绍。
1. 开放数据库连接(ODBC)
开放数据库连接(Open Database Connectivity,ODBC)是由Microsoft公司定义的一种数据库访问标准。使用ODBC应用程序不仅可以访问存储在本地计算机的桌面型数据库中的数据,而且可以访问异构平台上的数据库,例如可以访问SQL Server、Oracle、Informix或DB2构建的数据库等。
ODBC是一种重要的访问数据库的应用程序编程接口(Application Programming Interface,API),基于标准的SQL语句,它的核心就是SQL语句,因此,为了通过ODBC访问数据库服务器,数据库服务器必须支持SQL语句。
ODBC通过一组标准的函数(ODBC API)调用来实现数据库的访问,但是程序员不必理解这些ODBC,API就可以轻松开发基于ODBC的客户机/服务器应用程序。这是因为在很多流行的程序开发语言中,如Visual Basic、PowerBuilder、Visual C++等,都提供了封装ODBC各种标准函数的代码层,开发人员可以直接使用这些标准函数。
ODBC获得了巨大成功并大大简化了一些数据库开发工作。但是它也存在严重的不足,因此Microsoft公司又开发了OLE DB。
2. OLE DB
OLE DB是Microsoft公司提供的关于数据库系统级程序的接口(System-Level Programming Interface),是Microsoft公司数据库访问的基础。OLE DB实际上是Microsoft公司OLE对象标准的一个实现。OLE DB对象本身是COM(组件对象模型)对象并支持这种对象的所有必需的接口。
一般说来,OLE DB提供了两种访问数据库的方法:一种是通过ODBC驱动器访问支持SQL语言的数据库服务器;另一种是直接通过原始的OLE DB提供程序。因为ODBC只适用于支持SQL语言的数据库,因此ODBC的使用范围过于狭窄,目前Microsoft公司正在逐步用OLE DB来取代ODBC。
因为OLE DB是一个面向对象的接口,特别适合于面向对象语言。然而,许多数据库应用开发者使用VBScript和JScript等脚本语言开发程序,所以Microsoft公司在OLE DB对象的基础上定义了ADO。
3. 动态数据对象(ADO)
动态数据对象(Active Data Objects,ADO)是一种简单的对象模型,可以被开发者用来处理任何OLE DB数据,可以由脚本语言或高级语言调用。ADO对数据库提供了应用程序水平级的接口(Application-Level Programming Interface),几乎使用任何语言的程序员都能够通过使用ADO来使用OLE DB的功能。Microsoft公司声称,ADO将替换其他的数据访问方式,所以ADO对于任何使用Microsoft公司产品的数据库应用是至关重要的。
1.1.5 网络数据库系统编程技术
在当今网络盛行的年代,数据库与Web技术的结合正在深刻改变着网络应用。有了数据库的支持,扩展网页功能、设计交互式页面、构造功能强大的后台管理系统、更新网站和维护网站都将变得轻而易举。随着网络应用的深入,Web数据库技术将日益显示出其重要地位。在这里简单介绍一下Web数据库开发的相关技术。
1. 通用网关接口(CGI)编程
通用网关接口(Common Gateway Interface,CGI)是一种通信标准,它的任务是接受客户端的请求,经过辨认和处理,生成HTML文档并重新传回到客户端。这种交流过程的编程就叫做CGI编程。CGI可以运行在多种平台上,具有强大的功能,可以使用多种语言编程,如Visual Basic、Visual C++、Tcl、Perl、AppletScript等,比较常见的是用Perl语言编写的CGI程序。但是CGI也有其致命的弱点,即速度慢和安全性差等。
2. 动态服务器页面(ASP)
动态服务器页面(Active Server Pages,ASP)是Microsoft公司推出的一种用以取代CGI的技术,是一种真正简便易学、功能强大的服务器编程技术。ASP实际上是Microsoft公司开发的一套服务器端脚本运行环境,通过ASP可以建立动态的、交互的、高效的Web服务器应用程序。用ASP编写的程序都在服务器端执行,程序执行完毕后,再将执行的结果返回给客户端浏览器,这样不仅减轻了客户端浏览器的负担,大大提高了交互速度,而且避免了ASP程序源代码的外泄,提高了程序的安全性。
3. Java 服务器页面(JSP)
Java服务器页面(Java Server Pages,JSP)是Sun公司发布的Web应用程序开发技术,一经推出,就受到了人们的广泛关注。JSP技术为创建高度动态的Web应用程序提供了一个独特的开发环境,它能够适用于市场上大多数的服务器产品。
JSP使用Java语言编写服务器端程序,当客户端向服务器发出请求时,JSP源程序被编译成Servlet并由Java虚拟机执行。这种编译操作仅在对JSP页面的第一次请求时发生。因此,JSP程序能够提供更快的交互速度,其安全性和跨平台性也很优秀。
⑤ 集中式数据处理和分布式数据处理的优缺点
集中式数据处理优点:
1、部署结构简单。
2、数据容易备份,只需要把中央计算机上的数据备份即可。
3、不易感染病毒,只要对中央计算机做好保护,终端一般不需要外接设备,感染病毒的几率很低。
4、总费用较低,中央计算机的功能非常强大,终端只需要简单、便宜的设备。
缺点:
1、中央计算机需要执行所有的运算,当终端很多时,会导致响应速度变慢。
2、如果终端用户有不同的需要,要对每个用户的程序和资源做单独的配置,在集中式系统上做起来比较困难,而且效率不高。
分布式数据处理优点:
1、分布式网络中的每台机器都能存储和处理数据,降低了对机器性能的要求,所以不必购买昂贵的高性能机器,这大大降低了硬件投资成本。
2、扩展性极佳。在当前系统存储或计算能力不足时,可以简单地通过增加廉价PC机的方式来增加系统的处理和存储能力。
3、处理能力极强。庞大的计算任务可以在合理分割后由分布式网络中的机器并行地处理
缺点
1、计算程序全负荷运行时仍会对计算机的各个部件造成一定压力。
2、对项目方来说,参加分布式计算的志愿者不是项目方自己的人员,不是全体可信任,因此必须引入一定的冗余计算机制,才能防止计算错误、恶意作弊等。
(5)集中式存储冗余备份发展现状扩展阅读
分布式计算为信息不只分布在一个软件或计算机上,而是分布于多个软件上,可以用多台或一台计算机同时运行若干个软件,通过网络实现信息的共享。与其他算法相比,分布式算法有明显的优势:
1、共享资源更加方便。
2、能够实现计算负载的平衡,用多台计算机同时处理任务。
3、可以根据实际需要合理选择适当的计算机运行该程序。计算机分布式计算的灵魂是平衡负载和共享资源。分布式计算具有高效、快捷、准确的优势
⑥ 什么是分布式数据存储
什么是分布式存储
分布式存储是一种数据存储技术,它通过网络使用企业中每台机器上的磁盘空间,这些分散的存储资源构成了虚拟存储设备,数据分布存储在企业的各个角落。
分布式存储系统,可在多个独立设备上分发数据。传统的网络存储系统使用集中存储服务器来存储所有数据。存储服务器成为系统性能的瓶颈,也是可靠性和安全性的焦点,无法满足大规模存储应用的需求。分布式网络存储系统采用可扩展的系统结构,使用多个存储服务器共享存储负载,利用位置服务器定位存储信息,不仅提高了系统的可靠性,可用性和访问效率,而且易于扩展。
⑦ 简要介绍下计算机存储器的发展
计算机怎么是这样一个惊人的小配件? 对许多人他们可以 t是,因此惊奇关于怎样计算机改变了我们居住的方式。 计算机在许多大小和形状可能现在被发现。 几乎每家电似乎有他们被找出的自己的微型计算机某处。 从汽车到大厦对几乎每个小配件有,每一个大多时间有计算机工作做他们跑和改变我们居住生活的方式。
首要,计算机的最重要的组分是它的处理器。 它被认为做所有计算和处理计算机的心脏。 但与所有处理的那计算和,计算机赢取了 t是这样一个卓越的小配件如果不为它惊人的记忆。 计算机存储器使成为可能保留重要信息关于计算机。 可以再次使用这样数据和被检索当有些存储的数据是需要的时。 不用计算机存储器,处理器在哪里不会有设施存放它的,从而使他们的重要演算和过程无用。
有分配的计算机存储器的不同的类型存放数据的不同的类型。 当它来到存放必要的数据在计算机里面时,他们也有不同的能力和专业。 最响誉的计算机存储器是RAM,否则通认作为随机存取存储器。 它称随机存取,因为所有存储的数据可以直接地访问,如果您知道相交某一存储单元的确切的列和专栏。 在计算机存储器的这个类型,数据可以按任何顺序访问。 RAM s确切在对面称SAM或串行存取记忆,存放数据参加一系列存储单元可能按顺序只访问。 它经营很象盒式磁带,您必须审阅其他存储单元在访问您寻找的数据之前。
计算机存储器的其他类型包括ROM或只读存储器。 ROM是集成电路已经编程以不可能修改或改变的具体数据,因此仅命名读的。 也有计算机存储器叫的虚拟内存的另一个类型。 记忆的这个类型是一个共同的组分在多数操作系统和桌面。 它帮助计算机RAM释放以未使用的应用做方式为装载使用的当前应用。 它在计算机 s硬盘简单地运作在检查在RAM存放的数据旁边最近不使用并且安排它被存放,从而释放可贵的空间在RAM为装载其他应用。 一个虚拟内存将做一台计算机认为它有几乎无限的RAM在它里面。
的计算机存储器的另一个类型使计算机处理任务更加快速是什么称高速缓冲存储器。 高速缓冲存储器简单地运作在有旁边当前应用、在它的记忆存放的演算和过程而不是直接地到主要储藏区域。 当某一过程是需要早先半新的数据,它首先将设法访问高速缓冲存储器,如果这样数据在访问中央记忆贮存区之前被存放那里。 这从寻找数据在一个更大和更大的记忆贮存区释放计算机并且使数据提取更加快速。 计算机存储器在发展一个恒定的状态,当技术越来越被开发。 谁知道,计算机存储器也许为人的消耗量也在不久将来可能适合。
⑧ 冗余备份的介绍
冗余备份,就是多准备一份或几份,以备不时之需。例如冗余备份服务器,就是2台服务器互为备份,一台故障了,另一台立刻接替。
⑨ 存储器的发展史
存储器设备发展
1.存储器设备发展之汞延迟线
汞延迟线是基于汞在室温时是液体,同时又是导体,每比特数据用机械波的波峰(1)和波谷(0)表示。机械波从汞柱的一端开始,一定厚度的熔融态金属汞通过一振动膜片沿着纵向从一端传到另一端,这样就得名“汞延迟线”。在管的另一端,一传感器得到每一比特的信息,并反馈到起点。设想是汞获取并延迟这些数据,这样它们便能存储了。这个过程是机械和电子的奇妙结合。缺点是由于环境条件的限制,这种存储器方式会受各种环境因素影响而不精确。
1950年,世界上第一台具有存储程序功能的计算机EDVAC由冯.诺依曼博士领导设计。它的主要特点是采用二进制,使用汞延迟线作存储器,指令和程序可存入计算机中。
1951年3月,由ENIAC的主要设计者莫克利和埃克特设计的第一台通用自动计算机UNIVAC-I交付使用。它不仅能作科学计算,而且能作数据处理。
2.存储器设备发展之磁带
UNIVAC-I第一次采用磁带机作外存储器,首先用奇偶校验方法和双重运算线路来提高系统的可靠性,并最先进行了自动编程的试验。
磁带是所有存储器设备发展中单位存储信息成本最低、容量最大、标准化程度最高的常用存储介质之一。它互换性好、易于保存,近年来,由于采用了具有高纠错能力的编码技术和即写即读的通道技术,大大提高了磁带存储的可靠性和读写速度。根据读写磁带的工作原理可分为螺旋扫描技术、线性记录(数据流)技术、DLT技术以及比较先进的LTO技术。
根据读写磁带的工作原理,磁带机可以分为六种规格。其中两种采用螺旋扫描读写方式的是面向工作组级的DAT(4mm)磁带机和面向部门级的8mm磁带机,另外四种则是选用数据流存储技术设计的设备,它们分别是采用单磁头读写方式、磁带宽度为1/4英寸、面向低端应用的Travan和DC系列,以及采用多磁头读写方式、磁带宽度均为1/2英寸、面向高端应用的DLT和IBM的3480/3490/3590系列等。
磁带库是基于磁带的备份系统,它能够提供同样的基本自动备份和数据恢复功能,但同时具有更先进的技术特点。它的存储容量可达到数百PB,可以实现连续备份、自动搜索磁带,也可以在驱动管理软件控制下实现智能恢复、实时监控和统计,整个数据存储备份过程完全摆脱了人工干涉。
磁带库不仅数据存储量大得多,而且在备份效率和人工占用方面拥有无可比拟的优势。在网络系统中,磁带库通过SAN(Storage Area Network,存储区域网络)系统可形成网络存储系统,为企业存储提供有力保障,很容易完成远程数据访问、数据存储备份或通过磁带镜像技术实现多磁带库备份,无疑是数据仓库、ERP等大型网络应用的良好存储设备。
3.存储器设备发展之磁鼓
1953年,随着存储器设备发展,第一台磁鼓应用于IBM 701,它是作为内存储器使用的。磁鼓是利用铝鼓筒表面涂覆的磁性材料来存储数据的。鼓筒旋转速度很高,因此存取速度快。它采用饱和磁记录,从固定式磁头发展到浮动式磁头,从采用磁胶发展到采用电镀的连续磁介质。这些都为后来的磁盘存储器打下了基础。
磁鼓最大的缺点是利用率不高, 一个大圆柱体只有表面一层用于存储,而磁盘的两面都利用来存储,显然利用率要高得多。 因此,当磁盘出现后,磁鼓就被淘汰了。
4.存储器设备发展之磁芯
美国物理学家王安1950年提出了利用磁性材料制造存储器的思想。福雷斯特则将这一思想变成了现实。
为了实现磁芯存储,福雷斯特需要一种物质,这种物质应该有一个非常明确的磁化阈值。他找到在新泽西生产电视机用铁氧体变换器的一家公司的德国老陶瓷专家,利用熔化铁矿和氧化物获取了特定的磁性质。
对磁化有明确阈值是设计的关键。这种电线的网格和芯子织在电线网上,被人称为芯子存储,它的有关专利对发展计算机非常关键。这个方案可靠并且稳定。磁化相对来说是永久的,所以在系统的电源关闭后,存储的数据仍然保留着。既然磁场能以电子的速度来阅读,这使交互式计算有了可能。更进一步,因为是电线网格,存储阵列的任何部分都能访问,也就是说,不同的数据可以存储在电线网的不同位置,并且阅读所在位置的一束比特就能立即存取。这称为随机存取存储器(RAM),在存储器设备发展历程中它是交互式计算的革新概念。福雷斯特把这些专利转让给麻省理工学院,学院每年靠这些专利收到1500万~2000万美元。
最先获得这些专利许可证的是IBM,IBM最终获得了在北美防卫军事基地安装“旋风”的商业合同。更重要的是,自20世纪50年代以来,所有大型和中型计算机也采用了这一系统。磁芯存储从20世纪50年代、60年代,直至70年代初,一直是计算机主存的标准方式。
5.存储器设备发展之磁盘
世界第一台硬盘存储器是由IBM公司在1956年发明的,其型号为IBM 350 RAMAC(Random Access Method of Accounting and Control)。这套系统的总容量只有5MB,共使用了50个直径为24英寸的磁盘。1968年,IBM公司提出“温彻斯特/Winchester”技术,其要点是将高速旋转的磁盘、磁头及其寻道机构等全部密封在一个无尘的封闭体中,形成一个头盘组合件(HDA),与外界环境隔绝,避免了灰尘的污染,并采用小型化轻浮力的磁头浮动块,盘片表面涂润滑剂,实行接触起停,这是现代绝大多数硬盘的原型。1979年,IBM发明了薄膜磁头,进一步减轻了磁头重量,使更快的存取速度、更高的存储密度成为可能。20世纪80年代末期,IBM公司又对存储器设备发展作出一项重大贡献,发明了MR(Magneto Resistive)磁阻磁头,这种磁头在读取数据时对信号变化相当敏感,使得盘片的存储密度比以往提高了数十倍。1991年,IBM生产的3.5英寸硬盘使用了MR磁头,使硬盘的容量首次达到了1GB,从此,硬盘容量开始进入了GB数量级。IBM还发明了PRML(Partial Response Maximum Likelihood)的信号读取技术,使信号检测的灵敏度大幅度提高,从而可以大幅度提高记录密度。
目前,硬盘的面密度已经达到每平方英寸100Gb以上,是容量、性价比最大的一种存储设备。因而,在计算机的外存储设备中,还没有一种其他的存储设备能够在最近几年中对其统治地位产生挑战。硬盘不仅用于各种计算机和服务器中,在磁盘阵列和各种网络存储系统中,它也是基本的存储单元。值得注意的是,近年来微硬盘的出现和快速发展为移动存储提供了一种较为理想的存储介质。在闪存芯片难以承担的大容量移动存储领域,微硬盘可大显身手。目前尺寸为1英寸的硬盘,存储容量已达4GB,10GB容量的1英寸硬盘不久也会面世。微硬盘广泛应用于数码相机、MP3设备和各种手持电子类设备。
另一种磁盘存储设备是软盘,从早期的8英寸软盘、5.25英寸软盘到3.5英寸软盘,主要为数据交换和小容量备份之用。其中,3.5英寸1.44MB软盘占据计算机的标准配置地位近20年之久,之后出现过24MB、100MB、200MB的高密度过渡性软盘和软驱产品。然而,由于USB接口的闪存出现,软盘作为数据交换和小容量备份的统治地位已经动摇,不久会退出存储器设备发展历史舞台。
6. 存储器设备发展之光盘
光盘主要分为只读型光盘和读写型光盘。只读型指光盘上的内容是固定的,不能写入、修改,只能读取其中的内容。读写型则允许人们对光盘内容进行修改,可以抹去原来的内容,写入新的内容。用于微型计算机的光盘主要有CD-ROM、CD-R/W和DVD-ROM等几种。
上世纪60年代,荷兰飞利浦公司的研究人员开始使用激光光束进行记录和重放信息的研究。1972年,他们的研究获得了成功,1978年投放市场。最初的产品就是大家所熟知的激光视盘(LD,Laser Vision Disc)系统。
从LD的诞生至计算机用的CD-ROM,经历了三个阶段,即LD-激光视盘、CD-DA激光唱盘、CD-ROM。下面简单介绍这三个存储器设备发展阶段性的产品特点。
LD-激光视盘,就是通常所说的LCD,直径较大,为12英寸,两面都可以记录信息,但是它记录的信号是模拟信号。模拟信号的处理机制是指,模拟的电视图像信号和模拟的声音信号都要经过FM(Frequency Molation)频率调制、线性叠加,然后进行限幅放大。限幅后的信号以0.5微米宽的凹坑长短来表示。
CD-DA激光唱盘 LD虽然取得了成功,但由于事先没有制定统一的标准,使它的开发和制作一开始就陷入昂贵的资金投入中。1982年,由飞利浦公司和索尼公司制定了CD-DA激光唱盘的红皮书(Red Book)标准。由此,一种新型的激光唱盘诞生了。CD-DA激光唱盘记录音响的方法与LD系统不同,CD-DA激光唱盘系统首先把模拟的音响信号进行PCM(脉冲编码调制)数字化处理,再经过EMF(8~14位调制)编码之后记录到盘上。数字记录代替模拟记录的好处是,对干扰和噪声不敏感,由于盘本身的缺陷、划伤或沾污而引起的错误可以校正。
CD-DA系统取得成功以后,使飞利浦公司和索尼公司很自然地想到利用CD-DA作为计算机的大容量只读存储器。但要把CD-DA作为计算机的存储器,还必须解决两个重要问题,即建立适合于计算机读写的盘的数据结构,以及CD-DA误码率必须从现有的10-9降低到10-12以下,由此就产生了CD-ROM的黄皮书(Yellow Book)标准。这个标准的核心思想是,盘上的数据以数据块的形式来组织,每块都要有地址,这样一来,盘上的数据就能从几百兆字节的存储空间上被迅速找到。为了降低误码率,采用增加一种错误检测和错误校正的方案。错误检测采用了循环冗余检测码,即所谓CRC,错误校正采用里德-索洛蒙(Reed Solomon)码。黄皮书确立了CD-ROM的物理结构,而为了使其能在计算机上完全兼容,后来又制定了CD-ROM的文件系统标准,即ISO 9660。
在上世纪80年代中期,光盘存储器设备发展速度非常快,先后推出了WORM光盘、磁光盘(MO)、相变光盘(Phase Change Disk,PCD)等新品种。20世纪90年代,DVD-ROM、CD-R、CD-R/W等开始出现和普及,目前已成为计算机的标准存储设备。
光盘技术进一步向高密度发展,蓝光光盘是不久将推出的下一代高密度光盘。多层多阶光盘和全息存储光盘正在实验室研究之中,可望在5年之内推向市场。
7.存储器设备发展之纳米存储
纳米是一种长度单位,符号为nm。1纳米=1毫微米,约为10个原子的长度。假设一根头发的直径为0.05毫米,把它径向平均剖成5万根,每根的厚度即约为1纳米。与纳米存储有关的主要进展有如下内容。
1998年,美国明尼苏达大学和普林斯顿大学制备成功量子磁盘,这种磁盘是由磁性纳米棒组成的纳米阵列体系。一个量子磁盘相当于我们现在的10万~100万个磁盘,而能源消耗却降低了1万倍。
1988年,法国人首先发现了巨磁电阻效应,到1997年,采用巨磁电阻原理的纳米结构器件已在美国问世,它在磁存储、磁记忆和计算机读写磁头等方面均有广阔的应用前景。
2002年9月,美国威斯康星州大学的科研小组宣布,他们在室温条件下通过操纵单个原子,研制出原子级的硅记忆材料,其存储信息的密度是目前光盘的100万倍。这是纳米存储材料技术研究的一大进展。该小组发表在《纳米技术》杂志上的研究报告称,新的记忆材料构建在硅材料表面上。研究人员首先使金元素在硅材料表面升华,形成精确的原子轨道;然后再使硅元素升华,使其按上述原子轨道进行排列;最后,借助于扫瞄隧道显微镜的探针,从这些排列整齐的硅原子中间隔抽出硅原子,被抽空的部分代表“0”,余下的硅原子则代表“1”,这就形成了相当于计算机晶体管功能的原子级记忆材料。整个试验研究在室温条件下进行。研究小组负责人赫姆萨尔教授说,在室温条件下,一次操纵一批原子进行排列并不容易。更为重要的是,记忆材料中硅原子排列线内的间隔是一个原子大小。这保证了记忆材料的原子级水平。赫姆萨尔教授说,新的硅记忆材料与目前硅存储材料存储功能相同,而不同之处在于,前者为原子级体积,利用其制造的计算机存储材料体积更小、密度更大。这可使未来计算机微型化,且存储信息的功能更为强大。
以上就是本文向大家介绍的存储器设备发展历程的7个关键时期
⑩ 云存储的云存储现状
早在2010年,关于云存储的使用情况,只有少于14%的调查受访者痛快地表示正在采用。但是,在我们最近的大多数调查中,我们看到了使用云存储的企业数量呈上升趋势。比如2012年,这个数量是30%。在过去的几个月的两个调查中,44%-48%的企业表示他们目前正在使用某种云存储,因此在云中储存数据的企业是在持续上涨的。
短短两年时间,云存储从少于14个百分点开始发展到这个程度实际上相当让人印象深刻。调查与调查之间的数据变化如此之宽泛,但是云端15TB-32TB的平均数据范围却意外的下降了。尤其是最大卖点是弹性和无限制容量的服务集。
从这些平均数据的角度来看,在去年春天的“云存储采购意向”调查中,我们询问公司所维持的存储容量是多少,包括磁盘、闪存、光纤、云、磁带、饼干码(cookiejar)等等。平均为1.4PB——这可是PB级别。
如果我们在深入一点,这些相同的受访者表示存储中平均有326TB的“活跃”数据。因此,即使我们假设这些公司存储在云端的所有云存储数据都是活跃的(这显然是不正确的),也就意味着这些云存储公司只有平均5%-10%的数据向云输送。
根据2015 TechTarget云存储调查结果,我们发现50%的受访者表示他们使用云作为生产数据的主要存储方式,但是有一个更大的数字,即63%的IT部门表示使用云作为数据备份。同时,43%的用户用云进行数据归档。
“如果企业还没有开始云存储,备份和长期数据归档通常是这种转换最好的开始点,”Nowalk说道,并指出这些最初的用例的运营成本也对于采用云存储的企业更易于看到。
然而,许多调查受访者表示使用云进行数据备份的一个原因在于云存储服务在市场上的占有率,从更为传统的产品,比如来自CommVault的产品,到云网关,甚至是新出现的云灾难恢复,比如数据保护即服务,Nadkarni说道。
虽然更多的组织开始试水云存储,不管是通过备份服务、归档或者使用云来保存生产数据,并不是所有的企业都开始这样做。围绕安全、法规遵从的担忧,以及围绕云服务的厂商锁定问题仍旧是一些IT部门没有开始的主要原因。
“让人们还保持冷静的就是厂商锁定,”Nadkarni说道,“他们想如果他们的数据进入云,他们该怎么弄回来。”
但是,好消息就是现在的云存储选择要比以前多很多。他指出谷歌的近线冷存储和数据归档服务,与之对应的就是亚马逊Web服务的Glacier,这二者就是企业可以考虑的新云存储选择。