当前位置:首页 » 服务存储 » 关于存储系统设计的问题
扩展阅读
webinf下怎么引入js 2023-08-31 21:54:13
堡垒机怎么打开web 2023-08-31 21:54:11

关于存储系统设计的问题

发布时间: 2022-08-01 07:59:24

❶ 大数据爆发性增长 存储技术面临难题

大数据爆发性增长 存储技术面临难题

随着大数据应用的爆发性增长,大数据已经衍生出了自己独特的架构,而且也直接推动了存储、网络以及计算技术的发展。毕竟处理大数据这种特殊的需求是一个新的挑战。硬件的发展最终还是由软件需求推动的。大数据本身意味着非常多需要使用标准存储技术来处理的数据。大数据可能由TB级(或者甚至PB级)信息组成,既包括结构化数据(数据库、日志、SQL等)以及非结构化数据(社交媒体帖子、传感器、多媒体数据)。此外,大部分这些数据缺乏索引或者其他组织结构,可能由很多不同文件类型组成。从目前技术发展的情况来看,大数据存储技术的发展正面临着以下几个难题:

1、容量问题

这里所说的“大容量”通常可达到PB级的数据规模,因此,海量数据存储系统也一定要有相应等级的扩展能力。与此同时,存储系统的扩展一定要简便,可以通过增加模块或磁盘柜来增加容量,甚至不需要停机。

“大数据”应用除了数据规模巨大之外,还意味着拥有庞大的文件数量。因此如何管理文件系统层累积的元数据是一个难题,处理不当的话会影响到系统的扩展能力和性能,而传统的NAS系统就存在这一瓶颈。所幸的是,基于对象的存储架构就不存在这个问题,它可以在一个系统中管理十亿级别的文件数量,而且还不会像传统存储一样遭遇元数据管理的困扰。基于对象的存储系统还具有广域扩展能力,可以在多个不同的地点部署并组成一个跨区域的大型存储基础架构。

2、延迟问题

“大数据”应用还存在实时性的问题。有很多“大数据”应用环境需要较高的IOPS性能,比如HPC高性能计算。此外,服务器虚拟化的普及也导致了对高IOPS的需求,正如它改变了传统IT环境一样。为了迎接这些挑战,各种模式的固态存储设备应运而生,小到简单的在服务器内部做高速缓存,大到全固态介质的可扩展存储系统等等都在蓬勃发展。

3、并发访问

一旦企业认识到大数据分析应用的潜在价值,他们就会将更多的数据集纳入系统进行比较,同时让更多的人分享并使用这些数据。为了创造更多的商业价值,企业往往会综合分析那些来自不同平台下的多种数据对象。包括全局文件系统在内的存储基础设施就能够帮助用户解决数据访问的问题,全局文件系统允许多个主机上的多个用户并发访问文件数据,而这些数据则可能存储在多个地点的多种不同类型的存储设备上。

4、安全问题

某些特殊行业的应用,比如金融数据、医疗信息以及政府情报等都有自己的安全标准和保密性需求。虽然对于IT管理者来说这些并没有什么不同,而且都是必须遵从的,但是,大数据分析往往需要多类数据相互参考,而在过去并不会有这种数据混合访问的情况,因此大数据应用也催生出一些新的、需要考虑的安全性问题。

5、成本问题

成本问题“大”,也可能意味着代价不菲。而对于那些正在使用大数据环境的企业来说,成本控制是关键的问题。想控制成本,就意味着我们要让每一台设备都实现更高的“效率”,同时还要减少那些昂贵的部件。

对成本控制影响最大的因素是那些商业化的硬件设备。因此,很多初次进入这一领域的用户以及那些应用规模最大的用户都会定制他们自己的“硬件平台”而不是用现成的商业产品,这一举措可以用来平衡他们在业务扩展过程中的成本控制战略。为了适应这一需求,现在越来越多的存储产品都提供纯软件的形式,可以直接安装在用户已有的、通用的或者现成的硬件设备上。此外,很多存储软件公司还在销售以软件产品为核心的软硬一体化装置,或者与硬件厂商结盟,推出合作型产品。

6、数据的积累

许多大数据应用都会涉及到法规遵从问题,这些法规通常要求数据要保存几年或者几十年。比如医疗信息通常是为了保证患者的生命安全,而财务信息通常要保存7年。而有些使用大数据存储的用户却希望数据能够保存更长的时间,因为任何数据都是历史记录的一部分,而且数据的分析大都是基于时间段进行的。要实现长期的数据保存,就要求存储厂商开发出能够持续进行数据一致性检测的功能以及其他保证长期高可用的特性。同时还要实现数据直接在原位更新的功能需求。

7、数据的灵活性

大数据存储系统的基础设施规模通常都很大,因此必须经过仔细设计,才能保证存储系统的灵活性,使其能够随着应用分析软件一起扩容及扩展。在大数据存储环境中,已经没有必要再做数据迁移了,因为数据会同时保存在多个部署站点。一个大型的数据存储基础设施一旦开始投入使用,就很难再调整了,因此它必须能够适应各种不同的应用类型和数据场景。

存储介质正在改变,云计算倍受青睐

存储之于安防的地位,其已经不仅是一个设备而已,而是已经升华到了一个解决方案平台的地步。作为图像数据和报警事件记录的载体,存储的重要性是不言而喻的。

安防监控应用对存储的需求是什么?首先,海量存储的需求。其次,性能的要求。第三,价格的敏感度。第四,集中管理的要求。第五,网络化要求。安防监控技术发展到今天经历了三个阶段,即:模拟化、数字化、网络化。与之相适应,监控数据存储也经历了多个阶段,即:VCR模拟数据存储、DVR数字数据存储,到现在的集中网络存储,以及发展到云存储阶段,正是在一步步迎合这种市场需求。在未来,安防监控随着高清化,网络化,智能化的不断发展,将对现有存储方案带来不断挑战,包括容量、带宽的扩展问题和管理问题。那么,基于大数据战略的海量存储系统--云存储就倍受青睐了。

基于大数据战略的安防存储优势明显

当前社会对于数据的依赖是前所未有的,数据已变成与硬资产和人同等重要的重要资料。如何存好、保护好、使用好这些海量的大数据,是安防行业面临的重要问题之一。那么基于大数据战略的安防存储其优势何在?

目前的存储市场上,原有的视频监控方案容量、带宽难以扩展。客户往往需要采购更多更高端的设备来扩充容量,提高性能,随之带来的是成本的急剧增长以及系统复杂性的激增。同时,传统的存储模式很难在完全没有业务停顿的情况下进行升级,扩容会对业务带来巨大影响。其次,传统的视频监控方案难于管理。由于视频监控系统一般规模较大,分布特征明显,大多独立管理,这样就把整个系统分割成了多个管理孤岛,相互之间通信困难,难以协调工作,以提高整体性能。除此之外,绿色、安全等也是传统视频监控方案所面临的突出问题。

基于大数据战略的云存储技术与生俱来的高扩展、易管理、高安全等特性为传统存储面临的问题带来了解决的契机。利用云存储,用户可以方便的进行容量、带宽扩展,而不必停止业务,或改变系统架构。同时,云存储还具有高安全、低成本、绿色节能等特点。基于云存储的视频监控解决方案是客户应对挑战很好的选择。王宇说,进入二十一世纪,云存储作为一种新的存储架构,已逐步走入应用阶段,云存储不仅轻松突破了SAN的性能瓶颈,而且可以实现性能与容量的线性扩展,这对于拥有大量数据的安防监控用户来说是一个新选择。

以英特尔推出的Hadoop分布式文件系统(HDFS)为例,其提供了一个高度容错性和高吞吐量的海量数据存储解决方案。目前已经在各种大型在线服务和大型存储系统中得到广泛应用,已经成为海量数据存储的事实标准。

随着信息系统的快速发展,海量的信息需要可靠存储的同时,还能被大量的使用者快速地访问。传统的存储方案已经从构架上越来越难以适应近几年来的信息系统业务的飞速发展,成为了业务发展的瓶颈和障碍。HDFS通过一个高效的分布式算法,将数据的访问和存储分布在大量服务器之中,在可靠地多备份存储的同时还能将访问分布在集群中的各个服务器之上,是传统存储构架的一个颠覆性的发展。最重要的是,其可以满足以下特性:可自我修复的分布式文件存储系统,高可扩展性,无需停机动态扩容,高可靠性,数据自动检测和复制,高吞吐量访问,消除访问瓶颈,使用低成本存储和服务器构建。

以上是小编为大家分享的关于大数据爆发性增长 存储技术面临难题的相关内容,更多信息可以关注环球青藤分享更多干货

❷ 详解大数据存储:哪些问题最容易出现

数据是重要的生产要素
信息时代,数据俨然已成为一种重要的生产要素,如同资本、劳动力和原材料等其他要素一样,而且作为一种普遍需求,它也不再局限于某些特殊行业的应用。各行各业的公司都在收集并利用大量的数据分析结果,尽可能的降低成本,提高产品质量、提高生产效率以及创造新的产品。例如,通过分析直接从产品测试现场收集的数据,能够帮助企业改进设计。此外,一家公司还可以通过深入分析客户行为,对比大量的市场数据,从而超越他的竞争对手。
存储技术必须跟上
随着大数据应用的爆发性增长,它已经衍生出了自己独特的架构,而且也直接推动了存储、网络以及计算技术的发展。毕竟处理大数据这种特殊的需求是一个新的挑战。硬件的发展最终还是由软件需求推动的,就这个例子来说,我们很明显的看到大数据分析应用需求正在影响着数据存储基础设施的发展。
从另一方面看,这一变化对存储厂商和其他IT基础设施厂商未尝不是一个机会。随着结构化数据和非结构化数据量的持续增长,以及分析数据来源的多样化,此前存储系统的设计已经无法满足大数据应用的需要。存储厂商已经意识到这一点,他们开始修改基于块和文件的存储系统的架构设计以适应这些新的要求。在这里,我们会讨论哪些与大数据存储基础设施相关的属性,看看它们如何迎接大数据的挑战。
容量问题
这里所说的“大容量”通常可达到PB级的数据规模,因此,海量数据存储系统也一定要有相应等级的扩展能力。与此同时,存储系统的扩展一定要简便,可以通过增加模块或磁盘柜来增加容量,甚至不需要停机。基于这样的需求,客户现在越来越青睐Scale-out架构的存储。Scale-out集群结构的特点是每个节点除了具有一定的存储容量之外,内部还具备数据处理能力以及互联设备,与传统存储系统的烟囱式架构完全不同,Scale-out架构可以实现无缝平滑的扩展,避免存储孤岛。
“大数据”应用除了数据规模巨大之外,还意味着拥有庞大的文件数量。因此如何管理文件系统层累积的元数据是一个难题,处理不当的话会影响到系统的扩展能力和性能,而传统的NAS系统就存在这一瓶颈。所幸的是,基于对象的存储架构就不存在这个问题,它可以在一个系统中管理十亿级别的文件数量,而且还不会像传统存储一样遭遇元数据管理的困扰。基于对象的存储系统还具有广域扩展能力,可以在多个不同的地点部署并组成一个跨区域的大型存储基础架构。
延迟问题
“大数据”应用还存在实时性的问题。特别是涉及到与网上交易或者金融类相关的应用。举个例子来说,网络成衣销售行业的在线广告推广服务需要实时的对客户的浏览记录进行分析,并准确的进行广告投放。这就要求存储系统在必须能够支持上述特性同时保持较高的响应速度,因为响应延迟的结果是系统会推送“过期”的广告内容给客户。这种场景下,Scale-out架构的存储系统就可以发挥出优势,因为它的每一个节点都具有处理和互联组件,在增加容量的同时处理能力也可以同步增长。而基于对象的存储系统则能够支持并发的数据流,从而进一步提高数据吞吐量。
有很多“大数据”应用环境需要较高的IOPS性能,比如HPC高性能计算。此外,服务器虚拟化的普及也导致了对高IOPS的需求,正如它改变了传统IT环境一样。为了迎接这些挑战,各种模式的固态存储设备应运而生,小到简单的在服务器内部做高速缓存,大到全固态介质的可扩展存储系统等等都在蓬勃发展。
并发访问 一旦企业认识到大数据分析应用的潜在价值,他们就会将更多的数据集纳入系统进行比较,同时让更多的人分享并使用这些数据。为了创造更多的商业价值,企业往往会综合分析那些来自不同平台下的多种数据对象。包括全局文件系统在内的存储基础设施就能够帮助用户解决数据访问的问题,全局文件系统允许多个主机上的多个用户并发访问文件数据,而这些数据则可能存储在多个地点的多种不同类型的存储设备上。

❸ 存储虚拟化应该怎么设计

谈到虚拟化,这题目可就大了。最初大家认识虚拟化,是从服务器端地应用兴起地。而发展至今,当前端服务器虚拟化应用已成为常态时,后端存储架构地虚拟化转型,便顺理成章地被提上了议事日程。

实施存储虚拟化地功能,主要依靠如下几个技术:

拓展(Scale-out)----实施存储容量和性能地同步线性增长!
在传统地非虚拟化存储架构中,存储拓展是通过“替代”完成地。当一个存储系统地性能和容量达到上限时,用户必须购置一个新系统以取代旧地系统。这样做往往导致旧系统直接被废弃。并且用户要在前期投入较大地浪费性前期投资。当然也能够通过连接更多地拓展柜在一定程度上解决容量地问题,但前端地性能瓶颈将会成为制约容量拓展地一大问题。
而Scale-out架构为用户提供了一种独特地、动态地虚拟化机制,它允许用户在需要时随时动态地拓展容量与性能,从而在保证大规模提高容量利用率和采用效率地同时,很好地解决了容量与性能地同步线性提升。

自动精简配置(Thin provision)--提供虚拟存储空间,提升磁盘利用率!
自动精简配置是一种为当前应用地即时写入数据分配空闲空间地技术。它可为应用服务提供大量地虚拟容量,从而有助于用户更加有效地利用存储容量,延后扩容时间。大家都知道相同容量级别地硬盘和IT设备地价格是依照时间推进而大幅下降地,而延后扩容时间就意味着用户能够大大延后购置扩容存储设备地时间,从而大幅度地减少用户存储地前期部建成本,在后续扩容中也可实施最经济化地实施。

分布式负载均衡(load Balance)--性能利用最大化!
分布式负载均衡技术是一种根据通道繁忙程度,自动选择数据块地传输途径,从而避免单一通道超负荷运载而成为性能瓶颈地技术。举个例子:当主机端向存储池发出一个写请求地时候,其组成数据块将以一种平衡地方式分派给各成员存储系统去完成。

作为专业地存储系统生产商,Infortrendf推出地ESVA系列虚拟化架构存储系统将上述技术进行了良好地融合,并配合多种不同主机接口和容量地设备选型,全面满足用户不同地应用环境要求。Infortrend地虚拟化存储方案,能够真正地解决您地Storage Virtualization之“需”!

❹ 频率之外谁重要计算机存储系统解析

同时在内存不足的电脑里,增加内存对系统的性能提升往往有着立杆见影的效果。于是玩家不禁要问,为什么CPU的缓存和内存对系统的性能影响这么大呢?这就得从计算机的存储系统的工作方式和原理谈起。 存储器是计算机中用于存放指令和数据的部件。计算机在处理数据时,中央处理器从存储器读出指令,再按照指令中的地址从存储器中读出数据,按照指令要求对数据进行操作。中央处理器的高速运算要求存储器要在很短的时间内完成指令和数据的存取操作。计算机层次结构存储器 随着对计算机性能的要求越来越高,现代计算机对存储系统有三个基本要求,即:存取时间短(速度快)、存储容量大和价格成本低。而容量越大存取的时间就会长,速度越快,价格就越高。为了解决这个问题,便采用了高速缓冲存储器,主存储器和辅助存储器3个部分组成。计算机各种存储及其特点 其中寄存器(Registe)是用于CPU内部各单元之间的周转,是CPU内部用来创建和储存CPU运算结果和其它运算结果的地方,拥有非常高的读写速度,里面的数据是下一步必然会用到的,所以寄存器不属于层次结构存储器。CPU内部的寄存器有很多种类型。CPU对存储器中的数据进行处理时,往往先把数据取到内部寄存器中,而后再作处理。外部寄存器是计算机中其它一些部件上用于暂存数据的寄存器,它与CPU之间通过“端口”交换数据,外部寄存器具有寄存器和内存储器双重特点。而通用寄存器的数据宽度决定了处理器一次可以运行的数据量。64位技术的寄存器变化 X86-64技术就是新增的几组CPU寄存器将提供更快的执行效率。标准的32位的x86架构包括8个通用寄存器,AMD在64 位X86架构中又增加了8组,将寄存器的数目提高到了16组。X86-64寄存器默认位64-bit。还增加了8组128-bit XMM寄存器,将能给单指令多数据流技术运算提供更多的空间,这些128位的寄存器将提供在矢量和标量计算模式下进行128位双精度处理,为3D建模、矢量分析和虚拟现实的实现提供了硬件基础。通过提供了更多的寄存器,按照X86-64标准生产的CPU可以更有效的处理数据,可以在一个时钟周期中传输更多的信息。 高速缓冲存储器就是我们平常所说的CPU缓存,通常包括一级、二级缓存,过去的高端产品还会有三级缓存,现在中低端产品也有L3了,比如AMD羿龙II双核系列,Intel的i3系列。关于高速缓存,后面会有更详细的介绍。 主存储器就是我们常说的内存条。高速缓冲存储器和主存储器(内存条)由于可以直接被CPU读取,故称之为内存储器。 辅助存储器主要是指硬盘,而海量存储器则是指过去主要用的磁带机一类的设备,现在随便硬盘技术的提升,辅助存储器也可以达到“海量”的标准。而且现在的辅助存储器一般都带有自身的缓存。 介绍完存储结构后,可能会产生一个疑问,那就是为什么层次结构存储器会加速计算机的速度,或者说层次结构的依据是什么? 【每日焦点】单碟王再现 日立500GB廉价硬盘首测存储分层加速源自局部性原理下面就得引入必备的“程序的局部性原理”知识了。 程序的局部性原理:是指程序在执行时呈现出局部性规律,即在一段时间内,整个程序的执行仅限于程序中的某一部分。相应地,执行所访问的存储空间也局限于某个存储区域。局部性原理又表现为:时间局部性(temporal locality)和空间局部性(spatial locality)。
程序的调用返回行为 时间局部性是指如果程序中的某条指令一旦执行,则不久之后该指令可能再次被执 行;如果某数据被访问,则不久之后该数据可能再次被访问。空间局部性 空间局部性是指一旦程序访问了某个存储单元,则不久之后。其附近的存储单元也将被访问。 空间局部性和时间局部性是有区别的。空间局部性指执行涉及很多簇聚的存储器单元的趋势,这反映了处理器顺序访问指令的倾向,同时,也反映了程序顺序访问数据单元的倾向,如处理数据表。时间局部性指处理器访问最近使用过的存储器单元的趋势,例如,当执行一个循环时,处理器重复执行相同的指令集合。 传统上,时间局部性是通过将最近使用的指令和数据值保存到高速缓存中并使用高速缓存的层次结构实现的。空间局部性通常是使用较大的高速缓存并将预取机制集成到高速缓存控制逻辑中实现的。 举例:当硬盘受到CPU指令控制开始读取数据时,硬盘上的控制芯会控制磁头把正在读取的簇的下一个或者几个簇中的数据读到硬盘的缓存中(由于硬盘上数据存储时是比较连续的,所以读取命中率较高),当需要读取下一个或者几个簇中的数据的时候,硬盘则不需要再次读取数据,直接把缓存中的数据传输到内存中就可以了,由于速度远远高于磁头读写的速度,所以能够达到明显改善能的目的,即根据空间局部性原理,预测下一步所需要的数据,并将其提前写入内存。 为了保证CPU访问时有较高的命中率,内存储器(包括CPU缓存和内存)中的内容应该按一定的算法替换。较常用的算法是“最近最少使用算法”(LRU算法),它是将最近一段时间内最少被访问过的行淘汰出局。因此需要为每行设置一个计数器,LRU算法是把命中行的计数器清零,其他各行计数器加1。当需要替换时淘汰行计数器计数值最大的数据行出局。这是一种高效、科学的算法,其计数器清零过程可以把一些频繁调用后再不需要的数据淘汰出,提高利用率。这样内存储器中的数据在更新的时候则会根据时间局布性原理把读取频率高的及其周围的相关数据留下,把低导入虚拟内存或者淘汰掉(关于虚拟内存后面会有描述)。 在层次存储结构中的每一级都采用程序局部分布原理的原理来预读和更替数据。由于预读的命中率很高,故续约了时间,这也是采用层次存储结构的基础。内存与CPU的桥梁-CPU缓存 现在高速缓存的概念已被扩充,不仅在CPU和主内存之间有高速缓存而且在内存和硬盘之间也有Cache(磁盘高速缓存),乃至在硬盘与网络之间也有某种意义上的 Cache(Internet 临时文件夹)——凡是位于速度相差较大的两种硬件之间的,用于协调两者数据传输速度差异的结构,均可称之为Cache。Cache与上下流之间的数据交换都是程序局部性原理。这次我们主要讨论CPU的高速缓存,前面已经介绍了CPU高速缓存是内存储器的一种,下面将介绍其产生的原因及演变。 早期计算机的CPU与主存的工作速度较为接近,主内存的速度并不影响整机的运算速度。随着IC设计和半导体制造工艺的发展,CPU的运行速度远高于主内存的速度。这要求系统中主存的存取速度提高,存储容量增大。而主存储器一般采用DRAM (动态随机存储器) ,其容量的提高是比较快的,但是读取速度的提高却很慢,因此在速度上与CPU主频的提高产生了不相配的情况。为解决高速CPU 与低速内存之间的速度差异,最经济、有效的方法是在两者之间插入容量不大但操作速度很高的存储器高速缓存(Cache) ,起到缓冲作用,解决了两者速度的平衡和匹配问题,对微处理器整体性能有很大提高。486时代的两个代表产品486DX和486SX 早期的80486相当于把80386和完成浮点运算的数学协处理器80387以及8kB的高速缓存集成到一起,这种片内高速缓存称为一级(L1)缓存,80486还支持主板上的二级(L2)缓存。缓存概念由此诞生,并一直延续到今天成为影响CPU性能的重要因素。四核Nehalem架构拥有高达8M的三级高速缓存 随着CPU制造工艺的发展,二级缓存和三级缓存也能轻易的集成在CPU内核中,容量也在逐年提升。至今,在中低端产品中集成三级缓存的CPU也不少见。 当然,有人可能要问,为什么不直接把内存的速度提高到和缓存一样快呢?这涉及到两个方面,为了得到更高的速度,那信号的发射频率必须提升,而为了得到更大的容量,就必须减少集成电路中信号传输中存在干扰,干扰与传播速度又正相关,如果频率提高,干扰就会增强,所以两者比较难以统一。构成缓存的6T SRAM晶体管结构图
另一方面是“经济”原因,高速缓存缓存通常都是静态RAM (SRAM),速度是非常的快, 但是静态RAM集成度低,存储相同的数据,静态RAM的体积是动态RAM的6倍,高同容量的静态RAM价格是动态RAM的四倍。这就限制了静态RAM容量的进一步扩大,同时缓存大小也成了CPU级别的一个重要标志。 虽然我们知道了高速缓存可以大幅的提高CPU的速度,那么,它们工作的具体原理是什么呢?CPU缓存的工作方式和原理 当CPU处理数据时,它会先到Cache中去寻找,如果数据因之前的操作已经读取而被暂存其中,就不需要再从内存中读取数据——由于CPU的运行速度一般比主内存的读取速度快,主存储器周期(访问主存储器所需要的时间)为数个时钟周期。因此若要访问主内存的话,就必须等待数个CPU周期从而造成浪费。Cache 的逻辑结构
Cache由控制和存储器2部分组成,如上图所示,其中虚线框内为控制部分。Cache的存储器中存放着主存的部分拷贝,其控制部分有3 个功能:
(1) 判断要访问的数据是否在Cache中,若在,为命中;否则,为未命中。
(2) 命中时,进行Cache 的寻址。
(3) 未命中时,按替换原则,确定主存中的信息块要读入到Cache 中的哪个信息块空间。 CPU在缓存中找到有用的数据被称为命中,当缓存中没有CPU所需的数据时(这时称为未命中),CPU才访问内存。从理论上讲,在一颗拥有一级缓存的CPU中,读取一级缓存的命中率为80%。也就是说CPU一级缓存中找到的有用数据占数据总量的80%,剩下的20%从二级缓存中读取。由于不能准确预测将要执行的数据并将其预读到缓存中,读取二级缓存的命中率也在80%左右(从二级缓存读到有用的数据占总数据的16%)。那么还有的数据就不得不从内存调用,但这已经是一个相当小的比例了。较高端的CPU中,还会带有三级缓存,它是为读取二级缓存后未命中的数据设计的—种缓存,在拥有三级缓存的CPU中,只有约5%的数据需要从内存中调用,这进一步提高了CPU的效率。拥有144MB缓存的八路IBM POWER5处理器 但这个比例也不是绝对的,因为随着软件的发展,需要越来越多的缓存来预存将要运算的数据,如果缓存的容量不随着软件的发展而增大,就会出现不够用的情况。 另外在处理器缓存的发展中,Intel和AMD的处理器一级缓存在逻辑结构设计上在Core之前并不一样。AMD对一级缓存的定位是“实数据读写缓存”,基于该架构的一级数据缓存主要用于存储CPU最先读取的数据;而更多的读取数据则分别存储在二/三级缓存和系统内存当中。即二级/三级缓存中的一部分数据都要在一定的规则下搬到一级缓存中。二级缓存的容量自然对AMD CPU的整体性能影响小些。相对的,AMD则总是试图把一级缓存做的更大些。 Intel在对Core之前一级缓存的理解是“数据代码指令追踪缓存”,即是说一级缓存中存储的其实只是二级缓存中数据的地址,而不是这些数据的复制。由于一级数据缓存不再存储实际数据,因此“数据代码指令追踪缓存”设计能够极大地降CPU对一级数据缓存容量的要求,降低处理器的生产难度。但这种设计的弊端在于数据读取效率较“实数据读写缓存设计”低,而且对二级缓存容量的依赖性非常大。 事实上CPU性能对二级缓存容量的“敏感”与否还受到诸如内存控制器,流水线长度、频率、总线架构和指令集等等多方面的影响。在多核CPU中还关乎各个物理内核之间的数据交换问题。从Core开始,Intel开始采用“实数据读写缓存”,而目前最新的Nehalm架构则像AMD一样,把内存控制器集成在CPU内部,并更新了总线。这一方面说明了AMD在CPU架构设计上的强项,另一方面在Intel采用AMD的这种占优势的存储架构之后,AMD的优势将被进一步削弱。 这里还涉及到一个问题:CPU提供给Cache的地址是主存的地址,要访问Cache,就必须将这个地址变换成Cache 的地址,这种地址变换为地址映射,Cache的地址映射有直接映射、全相联映射和组相联映射三种,目前的主流CPU都是采用组相联。虚拟内存-非层次存储内的加速 我们常说的虚拟内存与前面的层次存储结构是不一样。先看虚拟内存的定义:虚拟内存是计算机系统内存管理的一种技术。它使得应用程序认为它拥有连续的可用的内存(一个连续完整的地址空间),而实际上,它通常是被分隔成多个物理内存碎片,还有部分暂时存储在外部磁盘存储器上,在需要时进行数据交换。虚拟内存就是当物理内存不足够的时候,把硬盘的一部分当作内存内部数据的周转,而不是当做内存来使用。虚拟内存原理 比如当我们运行某程序时候占用了15M,不管此时内存的空闲空间够不够15M,系统都会用虚拟内存技术在硬盘上指定了一个虚拟空间,如果我们的物理内存够用,则此时这个虚拟空间里面没有信息而已 。当物理内存不足的时候,系统则会将些时内存里暂时用不上的程序存放到原先给它指定的虚拟空间中,然后留出地方给新的程序使用,在物理内存再次空闲,或者被存入虚拟空间的程序需要再次运行时,便会再将其读入内存。这样一个循环交换过程就是虚拟内存技术,为什么叫它虚拟呢,因为系统把文件释放到了硬盘上,而这个硬盘可不是内存,只是临时的保存内存信息的地方,这个区域并不可以被CPU读取和运算。 如果没有虚拟内存技术,我们在物理内存不够用的时候根本就启动不了新的程序,因为新的程序不能在内存中写入相关信息。虚拟内存的功能和作用都不属于计算机的层次存储结构,仅仅是操作系统单独对内存的一种管理方案。虚拟内存设置页 现在主流的配机内存已经升级到2G,稍微好点儿的都采用了4G,这样大的内存很少出现用满的情况,于是有人提出是不是可以禁用虚拟内存?不可以,至少在目前的软件环境这样做是不行的,因为从1961年虚拟内存诞生以来,虚拟内存技术已经成各种计算机操作系统和许多应用软件在编写时的一个规范,即使主内存足够用,有些程序也仍然需要虚拟内存的支持,如果禁掉虚拟内存会影响系统的稳定性和程序的兼容性。本文总结: 本文讲述了计算机的存储层次,其中以CPU的高速缓存为主,而且其它的方面如硬盘的缓存,内存与硬盘之间都采取了与CPU高速缓存相同的原理来实现系统的加速。 提供“高速缓存”的目的是为了让数据访问的速度适应CPU的处理速度,其基于的原理是内存中“程序执行与数据访问的局部性原理”,即一定程序执行时间和空间内,被访问的代码集中于一部分。为了充分发挥高速缓存的作用,不仅依靠“暂存刚刚访问过的数据”,还要使用硬件实现的指令预测与数据预取技术——尽可能把将要使用的数据预先从内存中取到高速缓存里。 可以这么说,以CPU缓存为代表的所有的层次存储结构都是以程序局部性原理为基础的空间换取速度。另外,CPU的寄存器和虚拟内存虽然不属于层次存储结构,但对计算机的速度和程序运行的稳定性都有非常积极的意义。

❺ 1. 简述存储系统层次结构的基本思想

制约计算机存储器设计的问题归纳起来有三个:容量多大?速度多快?价格多贵?
容量多大的问题似乎没有限制,不管容量多大,总要开发出应用来使用它。速度多快的问题在某种意义上更容易回答。为了获得多大的性能,存储器速度必须能够跟上处理器的速度,即当处理器执行指令时,我们不想使它停下来等待指令或操作数。最后一个问题也必须考虑,对于实用的系统,存储器的价格相对于其他部件必须是合理的。
正如人们所预料的,在存储器的3个关键特性即价格、容量和存取时间之间需要进行权衡。任何时候,都有各种技术可用来实现存储系统。在这个技术领域中,存在如下关系:
存取时间越短,每位的价格就越高;
容量越大,每位的价格就越低;
容量越大,存取时间就越长;
很显然,摆在设计者面前的难题是,不仅需要大容量,而且需要低的每位价格,因此希望采用提供大容量存储器的技术。但为了满足性能需求,设计者又必须使用昂贵、容量较小和存取时间快的存储器。
解决这个难题的方法是采用存储器层次结构,而不只是依赖单一的存储部件或技术。下图给出了一个通用存储层次结构,图中从上到下,出现下列情况:
每位价格降低;
容量增大;
存取时间增大;
处理器访问存储器的频度降低;
因此,容量较小、价格较贵、速度较快的存储器可作为容量较大、速度较慢的存储器的补充。这种组织方式成功的关键是最后一项,即处理器访问存储器的频度降低。
条件四有效的基础是访问局部性原理。在程序执行的过程中,处理器访问存储器中的指令和数据倾向于成簇(块)。程序通常通常包含很多迭代循环和子程序,一旦进入了一个循环和子程序,则需重复访问一小组指令。同样,对于表和数组的操作,包含存取一簇簇的数据。在一长段时间内,使用的簇是变动的;而在一小段时间内,处理器主要访问存储器中的固定簇。
因此,通过分层结构组织数据,有可能使存取较低层的百分比低于存取高层存储器的百分比。考虑刚才给出的二级存储器的例子,让第二级的存储器包含所有程序的指令和数据,当前的簇临时放在第一级,第一级的某些簇会不时地交换回第二级,为将要进入第一级的簇腾出空间。然而,平均来说,多数的访问是对第一级中的指令和数据。
这个原则可以应用到二级以上的存储器。考察图所示的分层结构,速度较快、容量较小且价格最贵的存储器是处理器的内部寄存器。下跳两层是主存储器,它是计算机中主要的内存系统。主存储器常用速度更快,容量更小的高速缓存来扩充。
(很多体系结构或组成原理相关的书籍上都有的。回答比较粗糙,建议你参考William Stalling的计算机组织与体系结构,这本书上有对该问题的完整的论述。)

❻ 专业存储系统集成做什么

另外,大量的市场分析数据也从不同的角度说明,未来数据存储的需求将会急剧增长,与这种趋势相伴随,企业的信息基础设施将会呈现出一个明显的特征——存储子系统的建立、管理和使用走向专业化。 建立存储系统的方式基本上可以分为两类:一是来自软硬件设备研发生产厂商;二是来自存储系统集成商。社会分工的细化和专业化趋势使我们相信,存储系统集成商将会成为企业机构用户获得存储系统的主流方式。审视度势,把握机会,你需要了解什么呢?要产品?还是要解决方案? “解决方案”是如今的时髦词藻,似乎比产品更高一筹。可是,仔细想想,未必如此。 所谓“解决方案”,带有量身定做的意思,是根据应用需求对一系列产品进行组合的结果。这种组合不是人人都可以做的,它要求具有较强的专业知识和经验。解决方案要根据应用环境进行一定的配置和组合,这也意味着某种灵活性和不确定性;与此相对应的概念是“产品”。所谓产品,这是一种定型的东西,在应用时不必要(常常是不允许)作太多的改变,强调的是一种确定性。另外应该注意到,同一样东西在不同人的眼里,有时可能会被看作“解决方案”,有时又可能被看作“产品”。例如一辆汽车,在专业工程师眼里是一套“解决方案”,但在用户眼里就是一个“产品”。 既然叫做产品,就是买回来直接就可以安装、使用,维护也比较简单。所以从用户的角度来看,产品的使用要比解决方案的应用简单得多。为了完成同样的功能,如果你为用户提供了一套解决方案,它总是把人们的目光引向“问题是如何解决的”;如果你提供的是一个产品,用户只要知道如何跟它打交道就可以了,而不必在意其内部的工作原理。所以,产品比解决方案更容易被用户接受,这就是用户总是倾向于购买“产品”而不是“解决方案”的原因。 可是,“解决方案”大行其道也有其必然的原因——存储需求千变万化,不可能用型号数量有限的产品来穷尽。例如一套SAN系统,至少需要存储设备、网络互连设备和管理软件这三类产品。根据应用需求的不同,每一项具体产品的选择以及各个产品之间的结构关系和管理方式又会产生无穷无尽的变化。“解决方案”的确可以在更大的程度上满足用户对于系统功能和性能的需求,但由此带来的问题是,它们在建立、使用和管理维护上往往过于复杂。 基于以上原因,“解决方案产品化”就成了来自用户的一种迫切期望。从“解决方案”的形成过程来看,用户的这种期望就转化为对解决方案提供商的一种前所未有的要求。用“产品”的标准来衡量“解决方案”建立、使用和管理维护的全过程,那就是:可以实现标准化,可以形成批量生产能力,可以陈列出来供用户选购并随时进行演示,可在用户现场立即开通,可以进行标准化的技术支持与服务。 这样的标准使专业化的存储系统集成商有机会脱颖而出,与那种仅有少量的产品、少量的技术人员、仅可通过“小炉匠”式的临时拼凑形成零星“解决方案”的业务模式全然区别开来了。拥有解决方案的功能,但又像产品那样方便地采购、安装、使用和维护,这是存储系统需求的发展趋势。这也正是存储系统集成商朗登科技有限公司一步一步走过的道路。作为一种品牌意识,朗登公司提出“作存储系统设计院”的口号,算作是对过去的总结和对未来的承诺。 把方便留给用户 随着企业的数据量越来越大,其对存储系统的功能、性能和易管理性的要求也越来越高,需要有相应的存储系统集成专业机构来根据具体需求进行系统设计。众所周知,企业要在市场上取得成功,需求是一切的出发点。但是,这里特别要注意,产品提供商和解决方案提供商,二者对市场需求进行定义的基础是有区别的。生产存储产品的目的是用来构造存储系统,所以存储产品的目标市场是存储系统集成商,即解决方案的提供者。而解决方案的提供者,也就是系统集成商所关注的市场才是最终的用户。部件的性能必然会作用于系统的整体性能,但系统的整体性能又不是各部件性能的简单相加。专业的存储系统集成商,他们的主要工作就是了解最终用户的需求,设计最能满足用户要求的存储系统解决方案,并对所设计的方案进行多次反复的认证和实验,以保证存储系统安全、稳定地运行,消除用户的后顾之忧。 研究和把握各种各样的用户需求,形成独立于具体用户而适用于各类应用场合的存储系统解决方案,把这些工作作为自身的日常功课,而不是坐等有了特定的用户才开始研究他们的具体需求、临时搭建特定的存储系统,这是专业存储系统集成商,即“存储系统设计院”与普通系统集成商或者产品代理商的区别。“存储系统设计院”意味着这样一种能力——在这里,用户可以看到各种已经建成并运行着的存储系统,就像是选购产品一样选购存储系统。 如果缺少了这个环节,用户直接面对独立分散的存储产品,几乎不可能了解到自己需要什么样的存储系统、应该由哪些产品构成、产品之间的结构关系应该怎样。更为重要的是,独立分散的存储产品构成系统以后能否实现可靠的互操作,能否发挥其应有的功能和性能,这些问题都还是未知数。专业化的存储系统集成,对互操作性的测试认证是其中一项至关重要的业务,这是他们必须向用户承诺的一种保证。用户的风险在这里被转嫁而去了。 可见,存储产品提供商的市场在于系统集成,系统集成商的市场才是最终用户。专业化的存储系统集成就是要作用户的好参谋,而系统结构和数据管理策略的设计规划以及系统投入运行后的服务保障是最重要的工作。 渠道+伙伴 市场是最富于理性的。谁能提供用户需要的东西,用户就会去找谁。对于存储系统来说,用户需要的就是在容量、性能、可用性、可管理性等各方面都满足自己的应用需求。作为一家存储产品生产厂商,不论是提供某种产品还是提供全线的存储产品,都只有把它们变成存储系统才能走向用户、走向市场。如果没有存储系统集成商,产品生产厂商只好自己来完成构建用户存储系统的任务,然而这与现代社会专业化分工逐步细化的趋势是背道而驰的。产品生产厂商的优势显然在于产品的设计、制造技术,只有那些规模非常庞大的厂商才有实力配备自己的系统集成咨询机构,而且这类机构的业务也在向独立运作的方向发展。这样一来,大型存储厂商的产品部门和系统集成咨询部门到更像是同一股东名下的不同企业。作为存储产品的研发和生产厂商,要想打开产品通向市场的大门,无论如何都离不开专业存储系统集成商的配合。 存储产品的互操作性不仅是用户和系统集成商关心的问题,也是产品进入市场的关键环节。专业化的存储系统集成商,由于其日常业务之一就是研究各类产品的互操作问题,所以由他们来为各存储产品生产厂商进行互操作性验证,其综合成本应该是最低的。就拿朗登科技有限公司来说,它已经把自己明确地定位于“存储系统设计院”,建立了十分完善的存储系统验证演示中心,在这里进行存储产品的互操作性验证当然是驾轻就熟,已经为不少国内外产品做过此类验证。 最后需要指出一点,存储系统集成决不是一味地向用户倾销新产品。相反,如何充分利用用户原有的存储资源,充分保护用户已有的投资,根据实际需要确定是否需要增加新的投入以及投入的力度和策略,这才是真正的专业存储系统集成商应该做的事情。在这里,存储资源和企业数据的整合与管理达到了和谐与统一。对于存储产品制造商来说,产品流向最终用户的渠道绝不止一条,但专业化的存储系统集成不仅将为存储产品流向最终用户提供最畅通的渠道,而且将自己的技术和经验附加在产品之上,无疑是为产品做了进一步的增光添彩。

❼ 如何解决存储器和CPU之间的时序配合问题,述说其详细过程

http://blog.21ic.com/user1/3794/archives/2007/40244.html
分享】存储器与CPU的连接2007-7-19 16:46:00
存储器与CPU的连接
存储器与CPU或系统总线的连接,这个题目很大。注意到以字节为单位组织的存储器是16位宽度、乃至32位宽度的存储器的基础,本着由易到难、由浅入深的原则,这里先考虑以字节为单位组织的存储器与8位CPU的连接,在下一节介绍16位宽度的存储器与16位CPU(以8086为例)的连接,在后面的章节再讨论32位CPU(以80386为例)的存储器组织。
在考虑存储芯片类型时,也是先考虑与CPU连接较为方便的SRAM和ROM,然后再指出DRAM与CPU连接时要特别考虑的地方。
在存储器与CPU连接时一般要考虑以下几个问题:
·CPU总线的负载能力。
·CPU与存储器速度的配合问题。
·存储器的地址空间分配。
·读/写控制信号的连接。
·数据线的连接。
·地址线的连接与存储芯片片选信号的产生。
1.CPU总线的负载能力
CPU总线的驱动能力有限,通常为一到数个,TTL负载,因此,在较大的系统中需要考虑总线驱动。一般做法是,对单向传送的地址和控制总线,可采用三态锁存器(如74LS373、8282等)和三态单向驱动器(如74LS244)等来加以锁存和驱动;对双向传送的数据总线,可采用三态双向驱动器(如74LS245、8286等)来加以驱动。三态双向驱动器也称总线收发器或数据收发器。
2.CPU与存储器速度的配合问题
每一种存储芯片都有自己固有的时序特性,这在前面已多次讲到。在和cPu相连时必须处理好时序的配合问题。处理这个问题应以CPU的时序为基准,从CPU的角度提要求。
例如,存储芯片读取时间应小于CPU从发出地址到要求数据稳定的时间间隔;存储芯片从片选有效到输出稳定的时间应小于系统自片选有效到cPu要求数据稳定的时间间隔。如果没有满足要求的存储芯片,或者出于价格因素而选用速度较慢的存储芯片时,则应提供外部电路,以产生READY信号,迫使CPU插入等待时钟Tw。看一个具体的例子,2114-2的读取时间最大为200 ns,而cPu要求的从地址有效到数据稳定的时间间隔为150 ns,则不能使用2114—2,可选用比它快的芯片。如果出于价格因素,一定要用2114—2,则需要设计READY产生电路,以便插入Tw。
3.存储器的地址空间分配
内存通常分为RAM和ROM两大部分,而RAM又分为操作系统占用区和用户区。另外,目前生产的存储器芯片,单片的容量仍然是有限的,即它的寻址空间是有限的,一般要由若干芯片组成一个存储器。所以,在和CPU连接时需进行存储器的地址空间分配,即需要事先确定每个芯片(或由“×l位”或“×4位”芯片组成的芯片组)所占用的地址空间。
4.读/写控制信号的连接
总的原则是CPU的读/写控制信号分别和存储器芯片的读/写信号输入端相连。实际上,一般存储器芯片没有读输入端,是用写无效时的片选信号兼作读信号。有的存储器芯片设有输出允许()引脚,一般将该引脚和CPU的读信号相连,以便该片被选中且读信号有效时将片内数据输出三态门打开。对于不需要在线编程的ROM芯片,不存在写信号的连接。

5.数据线的连接
这个问题与存储器的读/写宽度有关,而存储器读/写的最大宽度一般为CPU对外数据总线的位数。在考虑存储器与CPU的数据线连接时,总的原则是:如果选用芯片的芯片字和所要设计的存储器的读/写宽度相同,则直接将它的数据线分别和CPU的数据线相连;如果芯片字的位数小于所要设计的存储器的读/写宽度,则需进行“位扩展”,即用几片组合在一起,使它们的芯片字位数的总和等于存储器的读/写宽度,将它们的数据线分别和CPU的数据线按对应关系相连。
这里以8位CPU配8位宽度的存储器为例。若选用“×8位”存储芯片,则将它的8根数据线分别和CPU的8根数据线相连即可;而选用芯片字不足8位的存储芯片,则需要用几片(“×1位”芯片需8片,“×4位”位芯片需2片)才能构成一个8位宽度的存储器,这时,需将这些芯片的数据线按位的对应关系分别和CPU的8根数据线相连。
有些存储芯片,数据的输入和输出分别缓冲,一位数据设置DIN和DOUT两个数据线引脚。对于这种芯片,需将一位的DIN和DOUT引脚连起来,再和CPU的一根数据线相连。
6.地址线的连接及存储芯片片选信号的产生
一个存储器系统通常需要若干个存储芯片。为了能正确实现寻址,一般的做法是,将cPu或系统的一部分地址线(通常是低位地址线,位数取决于存储芯片的容量)连到所有存储芯片,以进行片内寻址(存储芯片内均设有地址译码器);而用另一部分地址线(高位地址线)进行芯片选择。存储器系统设计的关键在于如何进行芯片选择,即如何对高位地址译码以产生芯片的片选信号,常用以下三种方法:
(1)线选法
用一根地址线直接作一个存储芯片的片选信号。例如,一台8位微机,有16根地址线,现要配2 KB RAM和2 KB ROM,均选用2 K×8位的芯片,则各需一片。这时可采用一种最简单的地址选择方法,如图3.24所示。将CPU的地址线的低11位(A10~A0)和两个芯片的地址线分别相连,芯片的片选直接和其他的高位地址线中的一根相连,图中A15反相后接RAM的,A14反相后接ROM的。这样,A15、A14为1 0时选中RAM片,为0 1时选中ROM片。
这里分析一下RAM芯片占用地址空间的情况。未用的地址位(这里是A13~A11)通常取0,即RAM芯片的设计地址空间为8000H~87FFH。将A15、A14固定为1 0,A10一AO作片内寻址,当A13~A11取不同的组合时,可形成包括上述设计空间在内的8个区域。除去设计空间外,其他区域是:8800H~8FFFH,9000H~97FFH,…,B800H~BFFFH。由于A13~A11没有参加译码,访问这7个区域中的任何一个单元都会影响到设计空间中相应的单元,因此,这7个区域不得他用。可以认为这些区域也被该RAM芯片所占用着,称这些区域为设计空间的重叠区。对于该例中的ROM芯片,同样也存在7个重叠区,读者可自行分析。

线选法的优点是简单、无需外加选择电路;缺点是不能有效地利用地址空间,也不便于系统的扩充。该方法可用在存储容量需求小,且不要求扩充的场合,例如单片机应用系统。
(2)全译码
全部地址线参加译码,除去进行片内寻址的低位地址线外,其余地址线均参加译码,以进行片选。例如,一台8位微机,现要求配8 KB RAM,选用2 K×8位的芯片,安排在64 KB地址空间低端的8 KB位置。图3.25所示为该8 KB RAM与CPU(或系统总线)的连接。图中74Lsl38是3线一8线译码器。它有3个代码输入端c、B、A(A为低位)和8个译码输出端Y0~Y7。74LSl38还有3个使能端(或叫允许端)G1、和,第一个为高电平有效,后两个为低电平有效。只有当它们为l 0 0时,译码器才进行正常译码;否则,译码器不工作,所有的输出均无效(为高)。表3.5是74LSl38的真值表。此外,常用的3线一8线译码器还有8205,其输入/输出特性和74LS138完全一样,只是使用了另一组信号名称。

从图3.25中可以看到,除片内寻址的低位地址线外,高位地址都参与了译码。根据图中的接法,当A15~A1l为00000时,YO有效,选中左起第一片;为00001时,Y1有效,选中左起第二片,其他依此类推。
全译码的优点是可利用全部地址空间,可扩充性好;缺点是译码电路开销大。
(3)部分译码
它是前两种方法的综合,即除进行片内寻址的低位地址线外,其余地址线有一部分参加译码以进行片选。以图3.26所示为例,这里最高位A15没有参加译码。因为A15没有参加译码,所以也存在重叠区问题。
部分译码是界于线选法和全译码之间的一种方法,其性能也界于二者之间:可寻址空间比线选法大,比全译码小;而译码电路比线选法复杂,比全译码简单。

上面围绕存储芯片片选信号的产生,说明了三种译码方法。这些方法也适用于后面要介绍的I/O端口的寻址。

❽ 计算机 存储器为什么要分层 分层结构有什么好处

存储器是计算机的核心部件之一。如何以合理的价格搭建出容量和速度都满足要求的存储系统,始终是计算机体系结构设计中的关键问题之一。

计算机中有不同容量,不同速度的存储器,你怎麽办?要把它们组织管理在一起,按照一定的体系结构组织起来,

以解决存储容量、存取速度和价格之

间的矛盾。存储器一分钱一分货,亲

设计让整个存储系统速度接近M1而价格和容量接近Mn

❾ 嵌入式系统的存储器设计需要考虑哪些方面

常见的嵌入式系统

Linux、uClinux、WinCE、PalmOS、Symbian、eCos、uCOS-II、VxWorks、pSOS、Nucleus、ThreadX 、Rtems 、QNX、INTEGRITY、OSE、C Executive
什么是嵌入式操作系统?嵌入式操作系统是一种支持嵌入式系统应用的操作系统软件,它是嵌入式系统的重要组成部分。嵌入时操作系统具有通用操作系统的基本特点,能够有效管理复杂的系统资源,并且把硬件虚拟化。

从应用角度可分为通用型嵌入式操作系统和专用型嵌入式操作系统。常见的通用型嵌入式操作系统有Linux、VxWorks、Windows CE.net等。常用的专用型嵌入式操作系统有Smart Phone、Pocket PC、Symbian等。

按实时性可分为两类:

实时嵌入式操作系统主要面向控制、通信等领域。如WindRiver公司的VxWorks、ISI的pSOS、QNX系统软件公司的QNX、ATI的Nucleus等。

非实时嵌入式操作系统主要面向消费类电子产品。这类产品包括PDA、移动电话、机顶盒、电子书、WebPhone等。如微软面向手机应用的Smart Phone操作系统。

❿ 计算机组成原理 关于画出存储器的结构图的问题

这题你不要问人,功利的讲,画图很麻烦,而且这是大题,网络80分差不多。。。。
而且,这个你可以做出来的,参照组成原理存储器设计的第一个例题,第一步列出rom和ram需要的存储空间的二进制表示,第二选择最少的元件,第三部连接串联还是并联的连接。做完这么两三道,就不会忘啦!以后也会很容易,花你半小时时间久能掌握这个知识点,期末考试和考研必考!相信我吧。
对不起,实在是画图太麻烦了