1. 计算机专业论文(800字)关于一些计算机理论什么的都可以 最好有中文对照。。两篇发我邮箱[email protected]
发一篇给你,希望对你有帮助!
网络工程专业《计算机组成原理》课程教学改革探讨
摘要:《计算机组成原理》是网络工程专业的核心专业课程之一,在整个专业课程中起到了承上启下的作用,对于网络工程专业人才的培养起着关键性的作用。本文根据网络工程专业的专业特点,从教学内容、教学模式和实验教学三个方面进行了探索,提出了网络工程专业的《计算机组成原理》课程改革方案。
关键词:网络工程专业;计算机组成原理;教学改革
1 前言
计算机网络是计算机科学与技术浪潮发展的第二次产物,是随着计算机、通信、多媒体等技术的发展应运而生的。网络工程专业是以现代计算机软硬件技术和网络通信技术及相关领域知识的高度综合为特征,发展迅速、应用广阔的新型专业。我国2001年增设该专业,目前国内很多高校开设了网络工程专业。
《计算机组成原理》是计算机相关专业的核心专业基础课程,因此也是网络工程专业的主干课程。从课程地位来说,它是网络工程专业的核心专业课程之一,在整个专业课程中起到了承上启下的作用,对于网络工程专业人才的培养起着关键性的作用。在计算机科学与技术专业里,《计算机组成原理》课程主要介绍微型计算机各部件的功能、组成和工作原理,实验也是围绕微型计算机开设的,其主要任务是培养学生对微型计算机硬件结构的分析、应用、设计和开发能力。但是,除了微型计算机,网络工程行业还会频繁地用到服务器,因此,网络工程专业的学生需要掌握一定的服务器硬件知识。所以,完全照搬计算机科学与技术专业的《计算机组成原理》到网络工程专业中来是不合适的。如何更好的将《计算机组成原理》的理论教学和实验教学与网络工程专业的实际情况紧密结合,提高学生实验动手能力,是《计算机组成原理》教学中一个非常重要、急需解决的课题。基于这种情况,我们提出了网络工程专业的《计算机组成原理》课程教学改革和实验模式。
2 教学内容改革
把计算机科学与技术专业的《计算机组成原理》课程内容精简,去掉一些偏僻、深奥的内容,将微型计算机组成原理与服务器硬件部分内容进行整合,全面、系统地介绍微型计算机的基本组成与运行原理,在此基础之上介绍服务器的基础知识和服务器的各种技术,比如服务器的系统结构、存储技术等。服务器的硬件结构比微型计算机复杂的多,所以在教学内容的安排顺序上应该把对服务器的基础知识和各种技术的介绍放在微型计算机的后面。
在计算机技术飞速发展的今天,新知识、新技术不断涌现,让人目不暇接,学生会认为教学内容过于陈旧而失去对该课程的兴趣,甚至对该课程产生反感。如何在有限的教学时间内,适当引导学生在掌握基础知识的前提下去了解新知识、新技术,提高学生对该课程的学习兴趣和对新知识、新技术的理解能力,这也是《计算机组成原理》课程理论教学内容改革的主要问题。为此,在理论教学内容的选择上我们遵守下面三个原则:(1)讲解单台冯诺依曼结构的微型计算机五大功能部件的组成原理以及运行原理、逻辑实现、设计方法以及如何把它们组织成为一个计算机系统的方法。(2)突出微型计算机中共性的问题。教学过程中,重点讲解基本概念、基本原理和具体的实现方法,偏僻、深奥的内容则去掉。适当引导学生在掌握基础知识的前提下去了解微型计算机的前沿知识。(3)在微型计算机基础之上介绍服务器的概念、系统结构、硬盘系统以及网络存储技术,适当引导学生在掌握基础知识的前提下去了解服务器的前沿知识。
3 教学模式
《计算机组成原理》是一门非常抽象的课程,传统的教学模式无法形象地描述计算机的内部组成和工作原理。因此,我们在多媒体课件的基础上又使用了仿真软件对计算机系统功能进行仿真。通过仿真系统,学生可以直观地看到指令在分步执行时,计算机内各部件之间的数据通路、数据的流动流水线的调度、数据相关和控制相关的处理等,把复杂、抽象的问题简单化、形象化,吸引学生的注意力。
教学过程中要理论联系实际,在基础知识和新知识之间架起一座桥梁,启发学生用课堂上掌握的基础知识来理解新知识、新技术。比如,讲解完动态随机存储器的基本概念和工作原理后,还要向学生介绍目前市场上动态随机存储器的主流产品——DDR SDRAM,让学生自行比较技术特点,从而理解动态随机存储器的发展新动向,提高自身的理解能力和自学能力。在讲解服务器时,要和微型计算机作对比,让学生理解为何服务器会采用不同于微型计算机的系统结构和其他技术。
4实验改革
我们从两方面进行实验改革:实验内容和实验模式。
(1)实验内容改革。以原有的微型计算机实验——运算器实验、存储器实验和控制器实验为基础,增加与网络工程专业密切相关的实验,如测试服务器性能实验、磁盘阵列配置实验以及双机热备实验。测试服务器性能实验能使学生掌握服务器性能的判断方法,能简单对服务器进行性能测试。磁盘阵列配置实验能使学生掌握使用软件或硬件RAID卡的方法进行磁盘阵列配置的方法,熟悉各级别RAID的优缺点,配置各个级别的RAID,能够根据需要自己选择RAID的级别。双机热备实验使学生掌握利用Windows Server2003操作系统实现双机热备的功能,并进行性能的测试。
(2)实验开放。以往我们对所有的学生开设同样的实验,没有充分考虑到学生的兴趣、能力和水平差距问题。为了尽量满足就业市场对人才知识的要求,提高学生的实践动手能力,满足不同层次学生的学习需要,引导学生确定自己的就业方向或研究方向。我们对各个实验项目进行综合评定,设定其难易程度、培养目标、与课堂教学的符合度等,根据以上指标定义实验等级,然后根据实验等级的不同来安排实验项目的开放顺序和开放对象。学生可根据自己的兴趣和能力,自行设计出电路、程序选题、选元器件、选择编程语言。实验室也将所有的实验平台全部对学生进行开放使用。开放式实验教学过程中,我们只对学生所做的题目进行审查,论证实验方案的可行性,检查最后的实验结果。通过开放式实验方法的教学,既能有效帮助非硬件方向同学尽快掌握基本知识和技能,使他们能顺利完成《计算机组成原理》课程及后续专业课程的学习,又能更好地满足硬件方向的同学在完成正常学习之余的进一步的学习要求,培养了他们的创造性思维,调动起他们的学习热情、主动性和积极性。
5 结束语
华东交通大学于2004年开设了网络工程专业,几年来,我们不断地探索和实践,完成了《计算机组成原理》精品课程的建设和《计算机组成原理》教材的编写,深化了网络工程专业《计算机组成原理》课程教学改革,提高了课程的教学水平和教学质量,促进了网络工程专业以及课程的建设与发展。同时,对培养学生的硬件设计能力和解决实际问题的能力起到了积极的作用。通过该课程的学习,学生不仅能够掌握微型计算机的基本组成与工作原理, 能掌握服务器的架构与必要的服务器基础技术,具有服务器选型、服务器配置的基本技能。为学习本专业后继课程和从事与硬件有关的工作打好坚实的基础。课程改革使得我们在有限的课时内从培养应用型人才出发,使学生既掌握计算机系统各部分的工作原理又具有较强的实际动手能力,从而激发学生学习的主观能动性,改变当前计算机相关专业学生“重理论、轻实践、重软件、轻硬件”的现象。
2. 计算机组成原理的实验报告 1、算术逻辑运算器;2、半导体存储器原理实验;3、微程序控制器实验
具体见: http://yaner12110.blog.163.com/blog/static/10077023920114605317373/
3. 大学里面计算机系都需要做哪些硬件和软件实验
1、数字逻辑电路
实验1 多路选择器设计
实验2 四位加法器(逐级进位、超前进位)
实验3 一位十进制加减法运算器设计
实验4 乘法器设计
实验5 求多路信号最小值
实验6 计数器设计
实验7 时钟分频电路设计
实验8 状态机设计
实验9 VGA显示控制器设计
实验10 PS/2键盘接口控制器设计
实验11 综合实验
2、计算机组成原理
实验1 编码实验
实验2 运算器实验
实验3 存储器实验
4. 高分求高人做计算机组成原理实验题
配图呢?
5. 谁能给我一份计算机组成原理的微控制器实验的小结
微程序控制器组成中的核心成分是控制存储器(CM),由ROM器件实现,用于存储按一定规则组织好的全部的控制信号。
微程序控制器的工作原理:是依据读来的机器指令的操作码找到与之对应的一段微程序的入口地址,并按由指令具体功能所确定的次序,逐条从控制存储器中读出微指令,以“驱动”计算机各功能部件正确运行。
微程序控制的基本思想,就是仿照通常的解题程序的方法,把操作控制信号编成所谓的“微指令”,存放到一个只读存储器里.当机器运行时,一条又一条地读出这些微指令,从而产生全机所需要的各种操作控制信号,使相应部件执行所规定的操作。
微程序控制器同组合逻辑控制器相比较,具有规整性,灵活性,可维护性等一系列优点,因而在计算机设计中逐渐取代了早期采用的组合逻辑控制器,并已被广泛地应用.在计算机系统中,微程序设计技术是利用软件方法来设计硬件的一门技术 。
6. 谁有“运算器组成的实验”“双端口存储器原理实验”这两个实验的实验报告啊,小弟不胜感激啊~
==》运算器组成的实验(不知道你的是不是运算放大器)
一、实验目的
1、掌握集成运算放大器的线性应用
2、了解基本运算电路的特点和性能
二、实验内容说明
集成运放是高增益的直流放大器。若在它的输出端和输入端之间加上反馈网络,就可实现个中不同的运算功能。
1、反相比例运算放大器电路
输出电压与输入电压间的关系:
V0=-(RF/F1)*Vi
闭环放大倍数:AF=AV*F=V0/Vi=-RF/R1
RF=R1时,放大器仅起反相作用,又称反相器。
运放正端有接入平衡电阻,其目的是为了保持反相比例运算放大器电路的结构对称,因此运放的两个输入电路的电阻必须相等。
2、反相加法运算放大器电路
它有几个输入端,能够对几个输入信号电压进行代数相加的运算。在理想情况下,VO与Vi的关系:
Vo=-(Vi1/R1+Vi2/R2)*Rf
3、同相比例运算放大器电路
在理想条件下,Vo与Vi的关系是:
Vo=(1+Rf/R1)*Vi
4、差动运算放大器电路
Vo=Rf/R1*(Vi2-Vi1)
三、实验内容(电位器都是接在输入电压上的,起改变电压作用- -)
1、反相比例运算放大器电路
(1)电路调零:所有输入电阻接地,调节变阻器,使输出电压为零(零点调好后不可随便变动)。
(2)按电路图接线(电路图你最好自己去查一下。。我懒得去画了- -)
Vi1从+0.4到-0.4V每一整数测一下Vo,然后算Av
2、反相加法器
调节Vi1和Vi2电位器,让2个输入端信号分别为:
次序 Vi1 Vi2 Vo Vo计算值
1 +0.2 +0.3
2 +0.2 -0.1
3 -0.4 -0.1
注意!!Vi1和Vi2互相之间是受影响的,所以要反复测量它们俩的值,反复调节电位器,直到数值稳定到达表中的要求。
3和4的两个电路操作可以参看1和2
四、实验仪器:
示波器和函数发生器(如果不输入正弦交流信号观察其输出波形的话就不用)交流毫伏表 数字万用表 直流稳压电源
如果这个实验报告符合你的要求,你还有什么不明白或是资料找不到,可以发消息给我。
7. 运算器、存储器、控制器、输入设备、输出设备麻烦谁帮忙把这几个名词解释给写一下
运算器:
arithmetic unit,计算机中执行各种算术和逻辑运算操作的部件。运算器的基本操作包括加、减、乘、除四则运算,与、或、非、异或等逻辑操作,以及移位、比较和传送等操作,亦称算术逻辑部件(ALU)。
存储器
存储器(Memory)是计算机系统中的记忆设备,用来存放程序和数据。计算机中的全部信息,包括输入的原始数据、计算机程序、中间运行结果和最终运行结果都保存在存储器中。它根据控制器指定的位置存入和取出信息。
控制器
控制器是计算机的指挥中心,负责决定执行程序的顺序,给出执行指令时机器各部件需要的操作控制命令.由程序计数器、指令寄存器、指令译码器、时序产生器和操作控制器组成,它是发布命令的“决策机构”,即完成协调和指挥整个计算机系统的操作。
输入设备
向计算机输入数据和信息的设备。是计算机与用户或其他设备通信的桥梁。输入设备是用户和计算机系统之间进行信息交换的主要装置之一.键盘,鼠标,摄像头, 扫描仪,光笔,手写输入板,游戏杆,语音输入装置等都属于输入设备输入设备(Input Device )是人或外部与计算机进行交互的一种装置,用于把原始数据和处理这些数的程序输入到计算机中。
输出设备
输出设备(Output Device)是人与计算机交互的一种部件,用于数据的输出。它把各种计算结果数据或信息以数字、字符、图像、声音等形式表示出来。常见的有显示器、打印机、绘图仪、影像输出系统、语音输出系统、磁记录设备等。
8. 计算机组成原理实验。有人会吗急需……谢谢了!
我有这样的实验报告
9. [组成原理]计算机更新技术从存储器,总线,运算器几个方面谈!!!!
我来凑热闹~~运算器Top
运算器:arithmetic unit,计算机中执行各种算术和逻辑运算操作的部件。运算器的基本操作包括加、减、乘、除四则运算,与、或、非、异或等逻辑操作,以及移位、比较和传送等操作,亦称算术逻辑部件(ALU)。计算机运行时,运算器的操作和操作种类由控制器决定。运算器处理的数据来自存储器;处理后的结果数据通常送回存储器,或暂时寄存在运算器中。
运算器-基本简介
浮点运算器
运算器是由算术逻辑单元(ALU)、累加寄存器、数据缓冲寄存器和状态条件寄存器组成,它是数据加工处理部件。相对控制器而言,运算器接受控制器的命令而进行动作 ,即运算器所进行的全部操作都是由控制器发出的控制信号来指挥的所以它是执行部件。主要功能:执行所有的算术运算;执行所有的逻辑运算,并进行逻辑测试,如零值测试或两个值的比较。计算机系统的硬件结构主要由四部分组成:控制器、运算器、内存和输入输出设备,其中,控制器和运算器统称为中央处理器。简称CPU.它是计算机硬件系统的指挥中心.它包括控制器和运算器两个部件。
1、算术逻辑运算单元ALU(Arithmetic and Logic Unit) ALU主要完成对二进制数据的定点算术运算(加减乘除)、逻辑运算(与或非异或)以及移位操作。在某些CPU中还有专门用于处理移位操作的移位器。通常ALU由两个输入端和一个输出端。整数单元有时也称为IEU(Integer Execution Unit)。我们通常所说的“CPU是XX位的”就是指ALU所能处理的数据的位数。
2、浮点运算单元FPU(Floating Point Unit)FPU主要负责浮点运算和高精度整数运算。有些FPU还具有向量运算的功能,另外一些则有专门的向量处理单元。
3、通用寄存器组是通用寄存器组是一组最快的存储器,用来保存参加运算的操作数和中间结果。在通用寄存器的设计上,RISC与CISC有着很大的不同。CISC的寄存器通常很少,主要是受了当时硬件成本所限。比如x86指令集只有8个通用寄存器。所以,CISC的CPU执行是大多数时间是在访问存储器中的数据,而不是寄存器中的。这就拖慢了整个系统的速度。而RISC系统往往具有非常多的通用寄存器,并采用了重叠寄存器窗口和寄存器堆等技术使寄存器资源得到充分的利用。对于x86指令集只支持8个通用寄存器的缺点,Intel和AMD的最新CPU都采用了一种叫做“寄存器重命名”的技术,这种技术使x86CPU的寄存器可以突破8个的限制,达到32个甚至更多。不过,相对于RISC来说,这种技术的寄存器操作要多出一个时钟周期,用来对寄存器进行重命名。
4、专用寄存器通常是一些状态寄存器,不能通过程序改变,由CPU自己控制,表明某种状态。
运算器-相关数据
运算器
运算器的处理对象是数据,所以数据长度和计算机数据表示方法,对运算器的性能影响极大。70年代微处理器常以1个、4个、8个、16个二进制位作为处理数据的基本单位。大多数通用计算机则以16、32、64位作为运算器处理数据的长度。能对一个数据的所有位同时进行处理的运算器称为并行运算器。如果一次只处理一位,则称为串行运算器。有的运算器一次可处理几位 (通常为6或8位),一个完整的数据分成若干段进行计算,称为串/并行运算器。运算器往往只处理一种长度的数据。有的也能处理几种不同长度的数据,如半字长运算、双倍字长运算、四倍字长运算等。有的数据长度可以在运算过程中指定,称为变字长运算。按照数据的不同表示方法,可以有二进制运算器、十进制运算器、十六进制运算器、定点整数运算器、定点小数运算器、浮点数运算器等。按照数据的性质,有地址运算器和字符运算器等。
运算器-操作流程
运算器的流程
运算器能执行多少种操作和操作速度,标志着运算器能力的强弱,甚至标志着计算机本身的能力。运算器最基本的操作是加法。一个数与零相加,等于简单地传送这个数。将一个数的代码求补,与另一个数相加,相当于从后一个数中减去前一个数。将两个数相减可以比较它们的大小。左右移位是运算器的基本操作。在有符号的数中,符号不动而只移数据位,称为算术移位。若数据连同符号的所有位一齐移动,称为逻辑移位。若将数据的最高位与最低位链接进行逻辑移位,称为循环移位。运算器的逻辑操作可将两个数据按位进行与、或、异或,以及将一个数据的各位求非。有的运算器还能进行二值代码的16种逻辑操作。乘、除法操作较为复杂。很多计算机的运算器能直接完成这些操作。乘法操作是以加法操作为基础的,由乘数的一位或几位译码控制逐次产生部分积,部分积相加得乘积。除法则又常以乘法为基础,即选定若干因子乘以除数,使它近似为1,这些因子乘被除数则得商。没有执行乘法、除法硬件的计算机可用程序实现乘、除,但速度慢得多。有的运算器还能执行在一批数中寻求最大数,对一批数据连续执行同一种操作,求平方根等复杂操作。
运算器-运算方法
运算器的方法
实现运算器的操作,特别是四则运算,必须选择合理的运算方法。它直接影响运算器的性能,也关系到运算器的结构和成本。另外,在进行数值计算时,结果的有效数位可能较长,必须截取一定的有效数位,由此而产生最低有效数位的舍入问题。选用的舍入规则也影响到计算结果的精确度。在选择计算机的数的表示方式时,应当全面考虑以下几个因素:要表示的数的类型(小数、整数、实数和复数):决定表示方式,可能遇到的数值范围:确定存储、处理能力。数值精确度:处理能力相关;数据存储和处理所需要的硬件代价:造价高低。
两种常用格式:定点格式:定点格式容许的数值范围有限,但要求的处理硬件比较简单;浮点格式:容许的数值范围很大,但要求的处理硬件比较复杂。
1、定点数表示法:定点指小数点的位置固定,为了处理方便,一般分为定点纯整数和纯小数。
2、浮点数表示法:由于所需表示的数值取值范围相差十分悬殊,给存储和计算带来诸多不便,因此出现了浮点运算法。
浮点表示法,即小数点的位置是浮动的。其思想来源于科学计数法。IEEE754的浮点数(比较特殊)浮点数的规格化:主要解决同一浮点数表示形式的不唯一性问题。规定 ,否则尾数要进行左移或右移。
机器零的概念:尾数为0或是阶码值小于所能表示的最小数。
3、十进制数串的表示方法:由于人们对十进制比较熟悉,因此在计算机中要增加对十进制运算的支持。两种方式:将十进制数变为二进制数运算,输出时再由二进制变为十进制。直接的十进制运算。直接运算的表示方法:字符串形式:用于非数值计算领域、压缩的十进制数串:分为定长和不定长两种。需要相应的十进制运算器和指令支持。
运算器应用实物
4、自定义数据表示:标志符数据表示、描述符数据表示。区别:标志符与每个数据相连,二者合起来存放在一个存储单元,而描述符要和数据分开存放;描述符表示中,先访问描述符,后访问数据,至少增加一次访存;描述符是程序的一部分,而不是数据的一部分。 原码:比较自然的表示法,最高位表示符号,0为正,1为负。优点:简单易懂。缺点:加减法运算复杂。补码:加减法运算方便,减法可以转换为加法。定点小数的补码。定点整数的补码,反码:为计算补码方便而引入。由反码求补码:符号位置1,各位取反,末位加1。移码:用于阶码的表示,两个移码容易比较大小,便于对阶。
ASCII码 输入码:用于汉字输入;汉字的存储;字模码:用于汉字的显示。余数处理的两种方法:恢复余数法:运算步骤不确定,控制复杂,不适合计算机运算。加减交替法:不恢复余数,运算步骤确定,适合计算机操作。逻辑数概念:不带符号的二进制数。四种逻辑运算:逻辑非、逻辑加、逻辑乘、逻辑异。多功能算术/逻辑运算单元(ALU) 并行进位,行波进位加/减法器存在的两个问题:运算时间长,行波进位加/减法器只能完成加法和减法,而不能完成逻辑操作,控制端M用来控制作算术运算还是逻辑运算,两种运算的区别在于是否对进位进行处理。M=0时,对进位无影响,为算术运算;M=1时,进位被封锁,为逻辑运算。 正逻辑中,“1”用高电平表示,“0”用低电平表示,而负逻辑刚好相反。逻辑与负逻辑的关系为,正逻辑的“与”到负逻辑中变为“或”,即+·互换。
内部总线,总线分类:内部总线、外部总线(系统总线)、通信总线。总线又可分为单向总线和双向总线。带锁存器的总线可实现总线的复用。运算器包括ALU、阵列乘除器件、寄存器、多路开关、三态缓冲器、数据总线等逻辑部件。运算器的设计,主要是围绕着ALU和寄存器同数据总线之间如何传送操作数和运算结果而进行的。运算器的三种结构形式:单总线结构的运算器:这种结构的主要缺点是操作进度较慢,但控制电路比较简单。双总线结构的运算器。三总线结构的运算器:三总线结构的运算器的特点是操作时间快。
运算器-相关结构
运算器
运算器包括寄存器、执行部件和控制电路3个部分。在典型的运算器中有3个寄存器:接收并保存一个操作数的接收寄存器;保存另一个操作数和运算结果的累加寄存器;在进行乘、除运算时保存乘数或商数的乘商寄存器。执行部件包括一个加法器和各种类型的输入输出门电路。控制电路按照一定的时间顺序发出不同的控制信号,使数据经过相应的门电路进入寄存器或加法器,完成规定的操作。为了减少对存储器的访问,很多计算机的运算器设有较多的寄存器,存放中间计算结果,以便在后面的运算中直接用作操作数。为了提高运算速度,某些大型计算机有多个运算器。它们可以是不同类型的运算器,如定点加法器、浮点加法器、乘法器等,也可以是相同类型的运算器。运算器的组成决定于整机的设计思想和设计要求,采用不同的运算方法将导致不同的运算器组成。但由于运算器的基本功能是一样的,其算法也大致相同,因而不同机器的运算器是大同小异的。运算器主要由算术逻辑部件、通用寄存器组和状态寄存器组成。
1、算术逻辑部件ALU。ALU 主要完成对二进制信息的定点算术运算、逻辑运算和各种移位操作。算术运算主要包括定点加、减、乘和除运算。逻辑运算主要有逻辑与、逻辑或、逻辑异或和逻辑非操作。移位操作主要完成逻辑左移和右移、算术左移和右移及其他一些移位操作。某些机器中,ALU 还要完成数值比较、变更数值符号、计算操作数在存储器中的地址等。可见,ALU 是一种功能较强的组合逻辑电路,有时被称为多功能发生器,它是运算器组成中的核心部件。ALU 能处理的数据位数(即字长)与机器有关。如 Z80 单板机中,ALU 是 8 位;IBM PC/XT 和 AT 机中,ALU 为 16 位;386 和 486 微机中,ALU 是 32 位。ALU 有两个数据输入端和一个数据输出端,输入输出的数据宽度(即位数)与 ALU 处理的数据宽度相同。
运算器部件的组成与设计
2、通用寄存器组近期设计的机器的运算器都有一组通用寄存器。它主要用来保存参加运算的操作数和运算的结果。早期的机器只设计一个寄存器,用来存放操作数、操作结果和执行移位操作,由于可用于存放重复累加的数据,所以常称为累加器。通用寄存器均可以作为累加器使用。通用寄存器的数据存取速度是非常快的,目前一般是十几个毫微秒(ns)。如果 ALU 的两个操作数都来自寄存器,则可以极大地提高运算速度。 通用寄存器同时可以兼作专用寄存器,包括用于计算操作数的地址(用来提供操作数的形式地址,据此形成有效地址再去访问主存单元)。例如,可作为变址寄存器、程序计数器(PC)、堆栈指示器(SP)等。必须注意的是,不同的机器对这组寄存器使用的情况和设置的个数是不相同的。
3、状态寄存器状态寄存器用来记录算术、逻辑运算或测试操作的结果状态。程序设计中,这些状态通常用作条件转移指令的判断条件,所以又称为条件码寄存器。一般均设置如下几种状态位:
1)零标志位(Z):当运算结果为 0 时,Z 位置“1”;非 0 时,置“0”;(2)负标志位(N):当运算结果为负时,N 位置“1”;为正时,置“0”;(3)溢出标志位(V):当运算结果发生溢出时,V 位置“1”;无溢出时,置“0”;(4)进位或借位标志(C):在做加法时,如果运算结果最高有效位(对于有符号数来说,即符号位;对无符号数来说,即数值最高位)向前产生进位时,C 位置“1”;无进位时,置“0”。在做减法时,如果不够减,最高有效位向前有借位(这时向前无进位产生)时,C 位置“1”;无借位(即有进位产生)时,C 位置“0”。除上述状态外,状态寄存器还常设有保存有关中断和机器工作状态(用户态或核心态)等信息的一些标志位(应当说明,不同的机器规定的内容和标志符号不完全相同),以便及时反映机器运行程序的工作状态,所以有的机器称它为“程序状态字”或“处理机状态字”(Processor Status Word,PSW )。
运算器-发展历史
运算器
公元前5世纪,中国人发明了算盘,广泛应用于商业贸易中,算盘被认为是最早的计算机,并一直使用至今。算盘在某些方面的运算能力要超过目前的计算机,算盘的方面体现了中国人民的智慧。 直到17世纪,计算设备才有了第二次重要的进步。1642年,法国人Blaise Pascal(1623-1662)发明了自动进位加法器,称为Pascalene。1694年,德国数学家Gottfried Wilhemvon Leibniz(1646-1716)改进了Pascaline,使之可以计算乘法。后来,法国人Charles Xavier Thomas de Colmar发明了可以进行四则运算的计算器。 现代计算机的真正起源来自英国数学教授Charles Babbage。Charles Babbage发现通常的计算设备中有许多错误,在剑桥学习时,他认为可以利用蒸汽机进行运算。起先他设计差分机用于计算导航表,后来,他发现差分机只是专门用途的机器,于是放弃了原来的研究,开始设计包含现代计算机基本组成部分的分析机。(Analytical Engine) Babbage的蒸汽动力计算机虽然最终没有完成,以今天的标准看也是非常原始的,然而,它勾画出现代通用计算机的基本功能部分,在概念上是一个突破。 在接下来的若干年中,许多工程师在另一些方面取得了重要的进步,美国人Herman Hollerith(1860-1929),根据提花织布机的原理发明了穿孔片计算机,并带入商业领域建立公司。
第一代电子管计算机 (1946-1957)
1946年2月15日,标志现代计算机诞生的ENIAC(Electronic Numerical Integrator and Computer)在费城公诸于世。ENIAC代表了计算机发展史上的里程碑,它通过不同部分之间的重新接线编程,还拥有并行计算能力。ENIAC由美国政府和宾夕法尼亚大学合作开发,使用了18000个电子管,70000个电阻器,有5百万个焊接点,耗电160千瓦,其运算速度为每秒5000次。第一代计算机的特点是操作指令是为特定任务而编制的,每种机器有各自不同的机器语言,功能受到限制,速度也慢。另一个明显特征是使用真空电子管和磁鼓储存数据 。
晶体管计算机
第二代晶体管计算机 (1957-1964)
1948年,晶体管发明代替了体积庞大电子管,电子设备的体积不断减小。1956年,晶体管在计算机中使用,晶体管和磁芯存储器导致了第二代计算机的产生。第二代计算机体积小、速度快、功耗低、性能更稳定。1960年,出现了一些成功地用在商业领域、大学和政府部门的第二代计算机。第二代计算机用晶体管代替电子管,还有现代计算机的一些部件:打印机、磁带、磁盘、内存、操作系统等。计算机中存储的程序使得计算机有很好的适应性,可以更有效地用于商业用途。在这一时期出现了更高级的COBOL和FORTRAN等语言,使计算机编程更容易。新的职业(程序员、分析员和计算机系统专家)和整个软件产业由此诞生。