❶ 大數據爆發性增長 存儲技術面臨難題
大數據爆發性增長 存儲技術面臨難題
隨著大數據應用的爆發性增長,大數據已經衍生出了自己獨特的架構,而且也直接推動了存儲、網路以及計算技術的發展。畢竟處理大數據這種特殊的需求是一個新的挑戰。硬體的發展最終還是由軟體需求推動的。大數據本身意味著非常多需要使用標准存儲技術來處理的數據。大數據可能由TB級(或者甚至PB級)信息組成,既包括結構化數據(資料庫、日誌、SQL等)以及非結構化數據(社交媒體帖子、感測器、多媒體數據)。此外,大部分這些數據缺乏索引或者其他組織結構,可能由很多不同文件類型組成。從目前技術發展的情況來看,大數據存儲技術的發展正面臨著以下幾個難題:
1、容量問題
這里所說的「大容量」通常可達到PB級的數據規模,因此,海量數據存儲系統也一定要有相應等級的擴展能力。與此同時,存儲系統的擴展一定要簡便,可以通過增加模塊或磁碟櫃來增加容量,甚至不需要停機。
「大數據」應用除了數據規模巨大之外,還意味著擁有龐大的文件數量。因此如何管理文件系統層累積的元數據是一個難題,處理不當的話會影響到系統的擴展能力和性能,而傳統的NAS系統就存在這一瓶頸。所幸的是,基於對象的存儲架構就不存在這個問題,它可以在一個系統中管理十億級別的文件數量,而且還不會像傳統存儲一樣遭遇元數據管理的困擾。基於對象的存儲系統還具有廣域擴展能力,可以在多個不同的地點部署並組成一個跨區域的大型存儲基礎架構。
2、延遲問題
「大數據」應用還存在實時性的問題。有很多「大數據」應用環境需要較高的IOPS性能,比如HPC高性能計算。此外,伺服器虛擬化的普及也導致了對高IOPS的需求,正如它改變了傳統IT環境一樣。為了迎接這些挑戰,各種模式的固態存儲設備應運而生,小到簡單的在伺服器內部做高速緩存,大到全固態介質的可擴展存儲系統等等都在蓬勃發展。
3、並發訪問
一旦企業認識到大數據分析應用的潛在價值,他們就會將更多的數據集納入系統進行比較,同時讓更多的人分享並使用這些數據。為了創造更多的商業價值,企業往往會綜合分析那些來自不同平台下的多種數據對象。包括全局文件系統在內的存儲基礎設施就能夠幫助用戶解決數據訪問的問題,全局文件系統允許多個主機上的多個用戶並發訪問文件數據,而這些數據則可能存儲在多個地點的多種不同類型的存儲設備上。
4、安全問題
某些特殊行業的應用,比如金融數據、醫療信息以及政府情報等都有自己的安全標准和保密性需求。雖然對於IT管理者來說這些並沒有什麼不同,而且都是必須遵從的,但是,大數據分析往往需要多類數據相互參考,而在過去並不會有這種數據混合訪問的情況,因此大數據應用也催生出一些新的、需要考慮的安全性問題。
5、成本問題
成本問題「大」,也可能意味著代價不菲。而對於那些正在使用大數據環境的企業來說,成本控制是關鍵的問題。想控製成本,就意味著我們要讓每一台設備都實現更高的「效率」,同時還要減少那些昂貴的部件。
對成本控制影響最大的因素是那些商業化的硬體設備。因此,很多初次進入這一領域的用戶以及那些應用規模最大的用戶都會定製他們自己的「硬體平台」而不是用現成的商業產品,這一舉措可以用來平衡他們在業務擴展過程中的成本控制戰略。為了適應這一需求,現在越來越多的存儲產品都提供純軟體的形式,可以直接安裝在用戶已有的、通用的或者現成的硬體設備上。此外,很多存儲軟體公司還在銷售以軟體產品為核心的軟硬一體化裝置,或者與硬體廠商結盟,推出合作型產品。
6、數據的積累
許多大數據應用都會涉及到法規遵從問題,這些法規通常要求數據要保存幾年或者幾十年。比如醫療信息通常是為了保證患者的生命安全,而財務信息通常要保存7年。而有些使用大數據存儲的用戶卻希望數據能夠保存更長的時間,因為任何數據都是歷史記錄的一部分,而且數據的分析大都是基於時間段進行的。要實現長期的數據保存,就要求存儲廠商開發出能夠持續進行數據一致性檢測的功能以及其他保證長期高可用的特性。同時還要實現數據直接在原位更新的功能需求。
7、數據的靈活性
大數據存儲系統的基礎設施規模通常都很大,因此必須經過仔細設計,才能保證存儲系統的靈活性,使其能夠隨著應用分析軟體一起擴容及擴展。在大數據存儲環境中,已經沒有必要再做數據遷移了,因為數據會同時保存在多個部署站點。一個大型的數據存儲基礎設施一旦開始投入使用,就很難再調整了,因此它必須能夠適應各種不同的應用類型和數據場景。
存儲介質正在改變,雲計算倍受青睞
存儲之於安防的地位,其已經不僅是一個設備而已,而是已經升華到了一個解決方案平台的地步。作為圖像數據和報警事件記錄的載體,存儲的重要性是不言而喻的。
安防監控應用對存儲的需求是什麼?首先,海量存儲的需求。其次,性能的要求。第三,價格的敏感度。第四,集中管理的要求。第五,網路化要求。安防監控技術發展到今天經歷了三個階段,即:模擬化、數字化、網路化。與之相適應,監控數據存儲也經歷了多個階段,即:VCR模擬數據存儲、DVR數字數據存儲,到現在的集中網路存儲,以及發展到雲存儲階段,正是在一步步迎合這種市場需求。在未來,安防監控隨著高清化,網路化,智能化的不斷發展,將對現有存儲方案帶來不斷挑戰,包括容量、帶寬的擴展問題和管理問題。那麼,基於大數據戰略的海量存儲系統--雲存儲就倍受青睞了。
基於大數據戰略的安防存儲優勢明顯
當前社會對於數據的依賴是前所未有的,數據已變成與硬資產和人同等重要的重要資料。如何存好、保護好、使用好這些海量的大數據,是安防行業面臨的重要問題之一。那麼基於大數據戰略的安防存儲其優勢何在?
目前的存儲市場上,原有的視頻監控方案容量、帶寬難以擴展。客戶往往需要采購更多更高端的設備來擴充容量,提高性能,隨之帶來的是成本的急劇增長以及系統復雜性的激增。同時,傳統的存儲模式很難在完全沒有業務停頓的情況下進行升級,擴容會對業務帶來巨大影響。其次,傳統的視頻監控方案難於管理。由於視頻監控系統一般規模較大,分布特徵明顯,大多獨立管理,這樣就把整個系統分割成了多個管理孤島,相互之間通信困難,難以協調工作,以提高整體性能。除此之外,綠色、安全等也是傳統視頻監控方案所面臨的突出問題。
基於大數據戰略的雲存儲技術與生俱來的高擴展、易管理、高安全等特性為傳統存儲面臨的問題帶來了解決的契機。利用雲存儲,用戶可以方便的進行容量、帶寬擴展,而不必停止業務,或改變系統架構。同時,雲存儲還具有高安全、低成本、綠色節能等特點。基於雲存儲的視頻監控解決方案是客戶應對挑戰很好的選擇。王宇說,進入二十一世紀,雲存儲作為一種新的存儲架構,已逐步走入應用階段,雲存儲不僅輕松突破了SAN的性能瓶頸,而且可以實現性能與容量的線性擴展,這對於擁有大量數據的安防監控用戶來說是一個新選擇。
以英特爾推出的Hadoop分布式文件系統(HDFS)為例,其提供了一個高度容錯性和高吞吐量的海量數據存儲解決方案。目前已經在各種大型在線服務和大型存儲系統中得到廣泛應用,已經成為海量數據存儲的事實標准。
隨著信息系統的快速發展,海量的信息需要可靠存儲的同時,還能被大量的使用者快速地訪問。傳統的存儲方案已經從構架上越來越難以適應近幾年來的信息系統業務的飛速發展,成為了業務發展的瓶頸和障礙。HDFS通過一個高效的分布式演算法,將數據的訪問和存儲分布在大量伺服器之中,在可靠地多備份存儲的同時還能將訪問分布在集群中的各個伺服器之上,是傳統存儲構架的一個顛覆性的發展。最重要的是,其可以滿足以下特性:可自我修復的分布式文件存儲系統,高可擴展性,無需停機動態擴容,高可靠性,數據自動檢測和復制,高吞吐量訪問,消除訪問瓶頸,使用低成本存儲和伺服器構建。
以上是小編為大家分享的關於大數據爆發性增長 存儲技術面臨難題的相關內容,更多信息可以關注環球青藤分享更多干貨
❷ 詳解大數據存儲:哪些問題最容易出現
數據是重要的生產要素
信息時代,數據儼然已成為一種重要的生產要素,如同資本、勞動力和原材料等其他要素一樣,而且作為一種普遍需求,它也不再局限於某些特殊行業的應用。各行各業的公司都在收集並利用大量的數據分析結果,盡可能的降低成本,提高產品質量、提高生產效率以及創造新的產品。例如,通過分析直接從產品測試現場收集的數據,能夠幫助企業改進設計。此外,一家公司還可以通過深入分析客戶行為,對比大量的市場數據,從而超越他的競爭對手。
存儲技術必須跟上
隨著大數據應用的爆發性增長,它已經衍生出了自己獨特的架構,而且也直接推動了存儲、網路以及計算技術的發展。畢竟處理大數據這種特殊的需求是一個新的挑戰。硬體的發展最終還是由軟體需求推動的,就這個例子來說,我們很明顯的看到大數據分析應用需求正在影響著數據存儲基礎設施的發展。
從另一方面看,這一變化對存儲廠商和其他IT基礎設施廠商未嘗不是一個機會。隨著結構化數據和非結構化數據量的持續增長,以及分析數據來源的多樣化,此前存儲系統的設計已經無法滿足大數據應用的需要。存儲廠商已經意識到這一點,他們開始修改基於塊和文件的存儲系統的架構設計以適應這些新的要求。在這里,我們會討論哪些與大數據存儲基礎設施相關的屬性,看看它們如何迎接大數據的挑戰。
容量問題
這里所說的「大容量」通常可達到PB級的數據規模,因此,海量數據存儲系統也一定要有相應等級的擴展能力。與此同時,存儲系統的擴展一定要簡便,可以通過增加模塊或磁碟櫃來增加容量,甚至不需要停機。基於這樣的需求,客戶現在越來越青睞Scale-out架構的存儲。Scale-out集群結構的特點是每個節點除了具有一定的存儲容量之外,內部還具備數據處理能力以及互聯設備,與傳統存儲系統的煙囪式架構完全不同,Scale-out架構可以實現無縫平滑的擴展,避免存儲孤島。
「大數據」應用除了數據規模巨大之外,還意味著擁有龐大的文件數量。因此如何管理文件系統層累積的元數據是一個難題,處理不當的話會影響到系統的擴展能力和性能,而傳統的NAS系統就存在這一瓶頸。所幸的是,基於對象的存儲架構就不存在這個問題,它可以在一個系統中管理十億級別的文件數量,而且還不會像傳統存儲一樣遭遇元數據管理的困擾。基於對象的存儲系統還具有廣域擴展能力,可以在多個不同的地點部署並組成一個跨區域的大型存儲基礎架構。
延遲問題
「大數據」應用還存在實時性的問題。特別是涉及到與網上交易或者金融類相關的應用。舉個例子來說,網路成衣銷售行業的在線廣告推廣服務需要實時的對客戶的瀏覽記錄進行分析,並准確的進行廣告投放。這就要求存儲系統在必須能夠支持上述特性同時保持較高的響應速度,因為響應延遲的結果是系統會推送「過期」的廣告內容給客戶。這種場景下,Scale-out架構的存儲系統就可以發揮出優勢,因為它的每一個節點都具有處理和互聯組件,在增加容量的同時處理能力也可以同步增長。而基於對象的存儲系統則能夠支持並發的數據流,從而進一步提高數據吞吐量。
有很多「大數據」應用環境需要較高的IOPS性能,比如HPC高性能計算。此外,伺服器虛擬化的普及也導致了對高IOPS的需求,正如它改變了傳統IT環境一樣。為了迎接這些挑戰,各種模式的固態存儲設備應運而生,小到簡單的在伺服器內部做高速緩存,大到全固態介質的可擴展存儲系統等等都在蓬勃發展。
並發訪問 一旦企業認識到大數據分析應用的潛在價值,他們就會將更多的數據集納入系統進行比較,同時讓更多的人分享並使用這些數據。為了創造更多的商業價值,企業往往會綜合分析那些來自不同平台下的多種數據對象。包括全局文件系統在內的存儲基礎設施就能夠幫助用戶解決數據訪問的問題,全局文件系統允許多個主機上的多個用戶並發訪問文件數據,而這些數據則可能存儲在多個地點的多種不同類型的存儲設備上。
❸ 存儲虛擬化應該怎麼設計
談到虛擬化,這題目可就大了。最初大家認識虛擬化,是從伺服器端地應用興起地。而發展至今,當前端伺服器虛擬化應用已成為常態時,後端存儲架構地虛擬化轉型,便順理成章地被提上了議事日程。
實施存儲虛擬化地功能,主要依靠如下幾個技術:
拓展(Scale-out)----實施存儲容量和性能地同步線性增長!
在傳統地非虛擬化存儲架構中,存儲拓展是通過「替代」完成地。當一個存儲系統地性能和容量達到上限時,用戶必須購置一個新系統以取代舊地系統。這樣做往往導致舊系統直接被廢棄。並且用戶要在前期投入較大地浪費性前期投資。當然也能夠通過連接更多地拓展櫃在一定程度上解決容量地問題,但前端地性能瓶頸將會成為制約容量拓展地一大問題。
而Scale-out架構為用戶提供了一種獨特地、動態地虛擬化機制,它允許用戶在需要時隨時動態地拓展容量與性能,從而在保證大規模提高容量利用率和採用效率地同時,很好地解決了容量與性能地同步線性提升。
自動精簡配置(Thin provision)--提供虛擬存儲空間,提升磁碟利用率!
自動精簡配置是一種為當前應用地即時寫入數據分配空閑空間地技術。它可為應用服務提供大量地虛擬容量,從而有助於用戶更加有效地利用存儲容量,延後擴容時間。大家都知道相同容量級別地硬碟和IT設備地價格是依照時間推進而大幅下降地,而延後擴容時間就意味著用戶能夠大大延後購置擴容存儲設備地時間,從而大幅度地減少用戶存儲地前期部建成本,在後續擴容中也可實施最經濟化地實施。
分布式負載均衡(load Balance)--性能利用最大化!
分布式負載均衡技術是一種根據通道繁忙程度,自動選擇數據塊地傳輸途徑,從而避免單一通道超負荷運載而成為性能瓶頸地技術。舉個例子:當主機端向存儲池發出一個寫請求地時候,其組成數據塊將以一種平衡地方式分派給各成員存儲系統去完成。
作為專業地存儲系統生產商,Infortrendf推出地ESVA系列虛擬化架構存儲系統將上述技術進行了良好地融合,並配合多種不同主機介面和容量地設備選型,全面滿足用戶不同地應用環境要求。Infortrend地虛擬化存儲方案,能夠真正地解決您地Storage Virtualization之「需」!
❹ 頻率之外誰重要計算機存儲系統解析
同時在內存不足的電腦里,增加內存對系統的性能提升往往有著立桿見影的效果。於是玩家不禁要問,為什麼CPU的緩存和內存對系統的性能影響這么大呢?這就得從計算機的存儲系統的工作方式和原理談起。 存儲器是計算機中用於存放指令和數據的部件。計算機在處理數據時,中央處理器從存儲器讀出指令,再按照指令中的地址從存儲器中讀出數據,按照指令要求對數據進行操作。中央處理器的高速運算要求存儲器要在很短的時間內完成指令和數據的存取操作。計算機層次結構存儲器 隨著對計算機性能的要求越來越高,現代計算機對存儲系統有三個基本要求,即:存取時間短(速度快)、存儲容量大和價格成本低。而容量越大存取的時間就會長,速度越快,價格就越高。為了解決這個問題,便採用了高速緩沖存儲器,主存儲器和輔助存儲器3個部分組成。計算機各種存儲及其特點 其中寄存器(Registe)是用於CPU內部各單元之間的周轉,是CPU內部用來創建和儲存CPU運算結果和其它運算結果的地方,擁有非常高的讀寫速度,裡面的數據是下一步必然會用到的,所以寄存器不屬於層次結構存儲器。CPU內部的寄存器有很多種類型。CPU對存儲器中的數據進行處理時,往往先把數據取到內部寄存器中,而後再作處理。外部寄存器是計算機中其它一些部件上用於暫存數據的寄存器,它與CPU之間通過「埠」交換數據,外部寄存器具有寄存器和內存儲器雙重特點。而通用寄存器的數據寬度決定了處理器一次可以運行的數據量。64位技術的寄存器變化 X86-64技術就是新增的幾組CPU寄存器將提供更快的執行效率。標準的32位的x86架構包括8個通用寄存器,AMD在64 位X86架構中又增加了8組,將寄存器的數目提高到了16組。X86-64寄存器默認位64-bit。還增加了8組128-bit XMM寄存器,將能給單指令多數據流技術運算提供更多的空間,這些128位的寄存器將提供在矢量和標量計算模式下進行128位雙精度處理,為3D建模、矢量分析和虛擬現實的實現提供了硬體基礎。通過提供了更多的寄存器,按照X86-64標准生產的CPU可以更有效的處理數據,可以在一個時鍾周期中傳輸更多的信息。 高速緩沖存儲器就是我們平常所說的CPU緩存,通常包括一級、二級緩存,過去的高端產品還會有三級緩存,現在中低端產品也有L3了,比如AMD羿龍II雙核系列,Intel的i3系列。關於高速緩存,後面會有更詳細的介紹。 主存儲器就是我們常說的內存條。高速緩沖存儲器和主存儲器(內存條)由於可以直接被CPU讀取,故稱之為內存儲器。 輔助存儲器主要是指硬碟,而海量存儲器則是指過去主要用的磁帶機一類的設備,現在隨便硬碟技術的提升,輔助存儲器也可以達到「海量」的標准。而且現在的輔助存儲器一般都帶有自身的緩存。 介紹完存儲結構後,可能會產生一個疑問,那就是為什麼層次結構存儲器會加速計算機的速度,或者說層次結構的依據是什麼? 【每日焦點】單碟王再現 日立500GB廉價硬碟首測存儲分層加速源自局部性原理下面就得引入必備的「程序的局部性原理」知識了。 程序的局部性原理:是指程序在執行時呈現出局部性規律,即在一段時間內,整個程序的執行僅限於程序中的某一部分。相應地,執行所訪問的存儲空間也局限於某個存儲區域。局部性原理又表現為:時間局部性(temporal locality)和空間局部性(spatial locality)。
程序的調用返回行為 時間局部性是指如果程序中的某條指令一旦執行,則不久之後該指令可能再次被執 行;如果某數據被訪問,則不久之後該數據可能再次被訪問。空間局部性 空間局部性是指一旦程序訪問了某個存儲單元,則不久之後。其附近的存儲單元也將被訪問。 空間局部性和時間局部性是有區別的。空間局部性指執行涉及很多簇聚的存儲器單元的趨勢,這反映了處理器順序訪問指令的傾向,同時,也反映了程序順序訪問數據單元的傾向,如處理數據表。時間局部性指處理器訪問最近使用過的存儲器單元的趨勢,例如,當執行一個循環時,處理器重復執行相同的指令集合。 傳統上,時間局部性是通過將最近使用的指令和數據值保存到高速緩存中並使用高速緩存的層次結構實現的。空間局部性通常是使用較大的高速緩存並將預取機制集成到高速緩存控制邏輯中實現的。 舉例:當硬碟受到CPU指令控制開始讀取數據時,硬碟上的控制芯會控制磁頭把正在讀取的簇的下一個或者幾個簇中的數據讀到硬碟的緩存中(由於硬碟上數據存儲時是比較連續的,所以讀取命中率較高),當需要讀取下一個或者幾個簇中的數據的時候,硬碟則不需要再次讀取數據,直接把緩存中的數據傳輸到內存中就可以了,由於速度遠遠高於磁頭讀寫的速度,所以能夠達到明顯改善能的目的,即根據空間局部性原理,預測下一步所需要的數據,並將其提前寫入內存。 為了保證CPU訪問時有較高的命中率,內存儲器(包括CPU緩存和內存)中的內容應該按一定的演算法替換。較常用的演算法是「最近最少使用演算法」(LRU演算法),它是將最近一段時間內最少被訪問過的行淘汰出局。因此需要為每行設置一個計數器,LRU演算法是把命中行的計數器清零,其他各行計數器加1。當需要替換時淘汰行計數器計數值最大的數據行出局。這是一種高效、科學的演算法,其計數器清零過程可以把一些頻繁調用後再不需要的數據淘汰出,提高利用率。這樣內存儲器中的數據在更新的時候則會根據時間局布性原理把讀取頻率高的及其周圍的相關數據留下,把低導入虛擬內存或者淘汰掉(關於虛擬內存後面會有描述)。 在層次存儲結構中的每一級都採用程序局部分布原理的原理來預讀和更替數據。由於預讀的命中率很高,故續約了時間,這也是採用層次存儲結構的基礎。內存與CPU的橋梁-CPU緩存 現在高速緩存的概念已被擴充,不僅在CPU和主內存之間有高速緩存而且在內存和硬碟之間也有Cache(磁碟高速緩存),乃至在硬碟與網路之間也有某種意義上的 Cache(Internet 臨時文件夾)——凡是位於速度相差較大的兩種硬體之間的,用於協調兩者數據傳輸速度差異的結構,均可稱之為Cache。Cache與上下流之間的數據交換都是程序局部性原理。這次我們主要討論CPU的高速緩存,前面已經介紹了CPU高速緩存是內存儲器的一種,下面將介紹其產生的原因及演變。 早期計算機的CPU與主存的工作速度較為接近,主內存的速度並不影響整機的運算速度。隨著IC設計和半導體製造工藝的發展,CPU的運行速度遠高於主內存的速度。這要求系統中主存的存取速度提高,存儲容量增大。而主存儲器一般採用DRAM (動態隨機存儲器) ,其容量的提高是比較快的,但是讀取速度的提高卻很慢,因此在速度上與CPU主頻的提高產生了不相配的情況。為解決高速CPU 與低速內存之間的速度差異,最經濟、有效的方法是在兩者之間插入容量不大但操作速度很高的存儲器高速緩存(Cache) ,起到緩沖作用,解決了兩者速度的平衡和匹配問題,對微處理器整體性能有很大提高。486時代的兩個代表產品486DX和486SX 早期的80486相當於把80386和完成浮點運算的數學協處理器80387以及8kB的高速緩存集成到一起,這種片內高速緩存稱為一級(L1)緩存,80486還支持主板上的二級(L2)緩存。緩存概念由此誕生,並一直延續到今天成為影響CPU性能的重要因素。四核Nehalem架構擁有高達8M的三級高速緩存 隨著CPU製造工藝的發展,二級緩存和三級緩存也能輕易的集成在CPU內核中,容量也在逐年提升。至今,在中低端產品中集成三級緩存的CPU也不少見。 當然,有人可能要問,為什麼不直接把內存的速度提高到和緩存一樣快呢?這涉及到兩個方面,為了得到更高的速度,那信號的發射頻率必須提升,而為了得到更大的容量,就必須減少集成電路中信號傳輸中存在干擾,干擾與傳播速度又正相關,如果頻率提高,干擾就會增強,所以兩者比較難以統一。構成緩存的6T SRAM晶體管結構圖
另一方面是「經濟」原因,高速緩存緩存通常都是靜態RAM (SRAM),速度是非常的快, 但是靜態RAM集成度低,存儲相同的數據,靜態RAM的體積是動態RAM的6倍,高同容量的靜態RAM價格是動態RAM的四倍。這就限制了靜態RAM容量的進一步擴大,同時緩存大小也成了CPU級別的一個重要標志。 雖然我們知道了高速緩存可以大幅的提高CPU的速度,那麼,它們工作的具體原理是什麼呢?CPU緩存的工作方式和原理 當CPU處理數據時,它會先到Cache中去尋找,如果數據因之前的操作已經讀取而被暫存其中,就不需要再從內存中讀取數據——由於CPU的運行速度一般比主內存的讀取速度快,主存儲器周期(訪問主存儲器所需要的時間)為數個時鍾周期。因此若要訪問主內存的話,就必須等待數個CPU周期從而造成浪費。Cache 的邏輯結構
Cache由控制和存儲器2部分組成,如上圖所示,其中虛線框內為控制部分。Cache的存儲器中存放著主存的部分拷貝,其控制部分有3 個功能:
(1) 判斷要訪問的數據是否在Cache中,若在,為命中;否則,為未命中。
(2) 命中時,進行Cache 的定址。
(3) 未命中時,按替換原則,確定主存中的信息塊要讀入到Cache 中的哪個信息塊空間。 CPU在緩存中找到有用的數據被稱為命中,當緩存中沒有CPU所需的數據時(這時稱為未命中),CPU才訪問內存。從理論上講,在一顆擁有一級緩存的CPU中,讀取一級緩存的命中率為80%。也就是說CPU一級緩存中找到的有用數據占數據總量的80%,剩下的20%從二級緩存中讀取。由於不能准確預測將要執行的數據並將其預讀到緩存中,讀取二級緩存的命中率也在80%左右(從二級緩存讀到有用的數據占總數據的16%)。那麼還有的數據就不得不從內存調用,但這已經是一個相當小的比例了。較高端的CPU中,還會帶有三級緩存,它是為讀取二級緩存後未命中的數據設計的—種緩存,在擁有三級緩存的CPU中,只有約5%的數據需要從內存中調用,這進一步提高了CPU的效率。擁有144MB緩存的八路IBM POWER5處理器 但這個比例也不是絕對的,因為隨著軟體的發展,需要越來越多的緩存來預存將要運算的數據,如果緩存的容量不隨著軟體的發展而增大,就會出現不夠用的情況。 另外在處理器緩存的發展中,Intel和AMD的處理器一級緩存在邏輯結構設計上在Core之前並不一樣。AMD對一級緩存的定位是「實數據讀寫緩存」,基於該架構的一級數據緩存主要用於存儲CPU最先讀取的數據;而更多的讀取數據則分別存儲在二/三級緩存和系統內存當中。即二級/三級緩存中的一部分數據都要在一定的規則下搬到一級緩存中。二級緩存的容量自然對AMD CPU的整體性能影響小些。相對的,AMD則總是試圖把一級緩存做的更大些。 Intel在對Core之前一級緩存的理解是「數據代碼指令追蹤緩存」,即是說一級緩存中存儲的其實只是二級緩存中數據的地址,而不是這些數據的復制。由於一級數據緩存不再存儲實際數據,因此「數據代碼指令追蹤緩存」設計能夠極大地降CPU對一級數據緩存容量的要求,降低處理器的生產難度。但這種設計的弊端在於數據讀取效率較「實數據讀寫緩存設計」低,而且對二級緩存容量的依賴性非常大。 事實上CPU性能對二級緩存容量的「敏感」與否還受到諸如內存控制器,流水線長度、頻率、匯流排架構和指令集等等多方面的影響。在多核CPU中還關乎各個物理內核之間的數據交換問題。從Core開始,Intel開始採用「實數據讀寫緩存」,而目前最新的Nehalm架構則像AMD一樣,把內存控制器集成在CPU內部,並更新了匯流排。這一方面說明了AMD在CPU架構設計上的強項,另一方面在Intel採用AMD的這種占優勢的存儲架構之後,AMD的優勢將被進一步削弱。 這里還涉及到一個問題:CPU提供給Cache的地址是主存的地址,要訪問Cache,就必須將這個地址變換成Cache 的地址,這種地址變換為地址映射,Cache的地址映射有直接映射、全相聯映射和組相聯映射三種,目前的主流CPU都是採用組相聯。虛擬內存-非層次存儲內的加速 我們常說的虛擬內存與前面的層次存儲結構是不一樣。先看虛擬內存的定義:虛擬內存是計算機系統內存管理的一種技術。它使得應用程序認為它擁有連續的可用的內存(一個連續完整的地址空間),而實際上,它通常是被分隔成多個物理內存碎片,還有部分暫時存儲在外部磁碟存儲器上,在需要時進行數據交換。虛擬內存就是當物理內存不足夠的時候,把硬碟的一部分當作內存內部數據的周轉,而不是當做內存來使用。虛擬內存原理 比如當我們運行某程序時候佔用了15M,不管此時內存的空閑空間夠不夠15M,系統都會用虛擬內存技術在硬碟上指定了一個虛擬空間,如果我們的物理內存夠用,則此時這個虛擬空間裡面沒有信息而已 。當物理內存不足的時候,系統則會將些時內存里暫時用不上的程序存放到原先給它指定的虛擬空間中,然後留出地方給新的程序使用,在物理內存再次空閑,或者被存入虛擬空間的程序需要再次運行時,便會再將其讀入內存。這樣一個循環交換過程就是虛擬內存技術,為什麼叫它虛擬呢,因為系統把文件釋放到了硬碟上,而這個硬碟可不是內存,只是臨時的保存內存信息的地方,這個區域並不可以被CPU讀取和運算。 如果沒有虛擬內存技術,我們在物理內存不夠用的時候根本就啟動不了新的程序,因為新的程序不能在內存中寫入相關信息。虛擬內存的功能和作用都不屬於計算機的層次存儲結構,僅僅是操作系統單獨對內存的一種管理方案。虛擬內存設置頁 現在主流的配機內存已經升級到2G,稍微好點兒的都採用了4G,這樣大的內存很少出現用滿的情況,於是有人提出是不是可以禁用虛擬內存?不可以,至少在目前的軟體環境這樣做是不行的,因為從1961年虛擬內存誕生以來,虛擬內存技術已經成各種計算機操作系統和許多應用軟體在編寫時的一個規范,即使主內存足夠用,有些程序也仍然需要虛擬內存的支持,如果禁掉虛擬內存會影響系統的穩定性和程序的兼容性。本文總結: 本文講述了計算機的存儲層次,其中以CPU的高速緩存為主,而且其它的方面如硬碟的緩存,內存與硬碟之間都採取了與CPU高速緩存相同的原理來實現系統的加速。 提供「高速緩存」的目的是為了讓數據訪問的速度適應CPU的處理速度,其基於的原理是內存中「程序執行與數據訪問的局部性原理」,即一定程序執行時間和空間內,被訪問的代碼集中於一部分。為了充分發揮高速緩存的作用,不僅依靠「暫存剛剛訪問過的數據」,還要使用硬體實現的指令預測與數據預取技術——盡可能把將要使用的數據預先從內存中取到高速緩存里。 可以這么說,以CPU緩存為代表的所有的層次存儲結構都是以程序局部性原理為基礎的空間換取速度。另外,CPU的寄存器和虛擬內存雖然不屬於層次存儲結構,但對計算機的速度和程序運行的穩定性都有非常積極的意義。
❺ 1. 簡述存儲系統層次結構的基本思想
制約計算機存儲器設計的問題歸納起來有三個:容量多大?速度多快?價格多貴?
容量多大的問題似乎沒有限制,不管容量多大,總要開發出應用來使用它。速度多快的問題在某種意義上更容易回答。為了獲得多大的性能,存儲器速度必須能夠跟上處理器的速度,即當處理器執行指令時,我們不想使它停下來等待指令或操作數。最後一個問題也必須考慮,對於實用的系統,存儲器的價格相對於其他部件必須是合理的。
正如人們所預料的,在存儲器的3個關鍵特性即價格、容量和存取時間之間需要進行權衡。任何時候,都有各種技術可用來實現存儲系統。在這個技術領域中,存在如下關系:
存取時間越短,每位的價格就越高;
容量越大,每位的價格就越低;
容量越大,存取時間就越長;
很顯然,擺在設計者面前的難題是,不僅需要大容量,而且需要低的每位價格,因此希望採用提供大容量存儲器的技術。但為了滿足性能需求,設計者又必須使用昂貴、容量較小和存取時間快的存儲器。
解決這個難題的方法是採用存儲器層次結構,而不只是依賴單一的存儲部件或技術。下圖給出了一個通用存儲層次結構,圖中從上到下,出現下列情況:
每位價格降低;
容量增大;
存取時間增大;
處理器訪問存儲器的頻度降低;
因此,容量較小、價格較貴、速度較快的存儲器可作為容量較大、速度較慢的存儲器的補充。這種組織方式成功的關鍵是最後一項,即處理器訪問存儲器的頻度降低。
條件四有效的基礎是訪問局部性原理。在程序執行的過程中,處理器訪問存儲器中的指令和數據傾向於成簇(塊)。程序通常通常包含很多迭代循環和子程序,一旦進入了一個循環和子程序,則需重復訪問一小組指令。同樣,對於表和數組的操作,包含存取一簇簇的數據。在一長段時間內,使用的簇是變動的;而在一小段時間內,處理器主要訪問存儲器中的固定簇。
因此,通過分層結構組織數據,有可能使存取較低層的百分比低於存取高層存儲器的百分比。考慮剛才給出的二級存儲器的例子,讓第二級的存儲器包含所有程序的指令和數據,當前的簇臨時放在第一級,第一級的某些簇會不時地交換回第二級,為將要進入第一級的簇騰出空間。然而,平均來說,多數的訪問是對第一級中的指令和數據。
這個原則可以應用到二級以上的存儲器。考察圖所示的分層結構,速度較快、容量較小且價格最貴的存儲器是處理器的內部寄存器。下跳兩層是主存儲器,它是計算機中主要的內存系統。主存儲器常用速度更快,容量更小的高速緩存來擴充。
(很多體系結構或組成原理相關的書籍上都有的。回答比較粗糙,建議你參考William Stalling的計算機組織與體系結構,這本書上有對該問題的完整的論述。)
❻ 專業存儲系統集成做什麼
另外,大量的市場分析數據也從不同的角度說明,未來數據存儲的需求將會急劇增長,與這種趨勢相伴隨,企業的信息基礎設施將會呈現出一個明顯的特徵——存儲子系統的建立、管理和使用走向專業化。 建立存儲系統的方式基本上可以分為兩類:一是來自軟硬體設備研發生產廠商;二是來自存儲系統集成商。社會分工的細化和專業化趨勢使我們相信,存儲系統集成商將會成為企業機構用戶獲得存儲系統的主流方式。審視度勢,把握機會,你需要了解什麼呢?要產品?還是要解決方案? 「解決方案」是如今的時髦詞藻,似乎比產品更高一籌。可是,仔細想想,未必如此。 所謂「解決方案」,帶有量身定做的意思,是根據應用需求對一系列產品進行組合的結果。這種組合不是人人都可以做的,它要求具有較強的專業知識和經驗。解決方案要根據應用環境進行一定的配置和組合,這也意味著某種靈活性和不確定性;與此相對應的概念是「產品」。所謂產品,這是一種定型的東西,在應用時不必要(常常是不允許)作太多的改變,強調的是一種確定性。另外應該注意到,同一樣東西在不同人的眼裡,有時可能會被看作「解決方案」,有時又可能被看作「產品」。例如一輛汽車,在專業工程師眼裡是一套「解決方案」,但在用戶眼裡就是一個「產品」。 既然叫做產品,就是買回來直接就可以安裝、使用,維護也比較簡單。所以從用戶的角度來看,產品的使用要比解決方案的應用簡單得多。為了完成同樣的功能,如果你為用戶提供了一套解決方案,它總是把人們的目光引向「問題是如何解決的」;如果你提供的是一個產品,用戶只要知道如何跟它打交道就可以了,而不必在意其內部的工作原理。所以,產品比解決方案更容易被用戶接受,這就是用戶總是傾向於購買「產品」而不是「解決方案」的原因。 可是,「解決方案」大行其道也有其必然的原因——存儲需求千變萬化,不可能用型號數量有限的產品來窮盡。例如一套SAN系統,至少需要存儲設備、網路互連設備和管理軟體這三類產品。根據應用需求的不同,每一項具體產品的選擇以及各個產品之間的結構關系和管理方式又會產生無窮無盡的變化。「解決方案」的確可以在更大的程度上滿足用戶對於系統功能和性能的需求,但由此帶來的問題是,它們在建立、使用和管理維護上往往過於復雜。 基於以上原因,「解決方案產品化」就成了來自用戶的一種迫切期望。從「解決方案」的形成過程來看,用戶的這種期望就轉化為對解決方案提供商的一種前所未有的要求。用「產品」的標准來衡量「解決方案」建立、使用和管理維護的全過程,那就是:可以實現標准化,可以形成批量生產能力,可以陳列出來供用戶選購並隨時進行演示,可在用戶現場立即開通,可以進行標准化的技術支持與服務。 這樣的標准使專業化的存儲系統集成商有機會脫穎而出,與那種僅有少量的產品、少量的技術人員、僅可通過「小爐匠」式的臨時拼湊形成零星「解決方案」的業務模式全然區別開來了。擁有解決方案的功能,但又像產品那樣方便地采購、安裝、使用和維護,這是存儲系統需求的發展趨勢。這也正是存儲系統集成商朗登科技有限公司一步一步走過的道路。作為一種品牌意識,朗登公司提出「作存儲系統設計院」的口號,算作是對過去的總結和對未來的承諾。 把方便留給用戶 隨著企業的數據量越來越大,其對存儲系統的功能、性能和易管理性的要求也越來越高,需要有相應的存儲系統集成專業機構來根據具體需求進行系統設計。眾所周知,企業要在市場上取得成功,需求是一切的出發點。但是,這里特別要注意,產品提供商和解決方案提供商,二者對市場需求進行定義的基礎是有區別的。生產存儲產品的目的是用來構造存儲系統,所以存儲產品的目標市場是存儲系統集成商,即解決方案的提供者。而解決方案的提供者,也就是系統集成商所關注的市場才是最終的用戶。部件的性能必然會作用於系統的整體性能,但系統的整體性能又不是各部件性能的簡單相加。專業的存儲系統集成商,他們的主要工作就是了解最終用戶的需求,設計最能滿足用戶要求的存儲系統解決方案,並對所設計的方案進行多次反復的認證和實驗,以保證存儲系統安全、穩定地運行,消除用戶的後顧之憂。 研究和把握各種各樣的用戶需求,形成獨立於具體用戶而適用於各類應用場合的存儲系統解決方案,把這些工作作為自身的日常功課,而不是坐等有了特定的用戶才開始研究他們的具體需求、臨時搭建特定的存儲系統,這是專業存儲系統集成商,即「存儲系統設計院」與普通系統集成商或者產品代理商的區別。「存儲系統設計院」意味著這樣一種能力——在這里,用戶可以看到各種已經建成並運行著的存儲系統,就像是選購產品一樣選購存儲系統。 如果缺少了這個環節,用戶直接面對獨立分散的存儲產品,幾乎不可能了解到自己需要什麼樣的存儲系統、應該由哪些產品構成、產品之間的結構關系應該怎樣。更為重要的是,獨立分散的存儲產品構成系統以後能否實現可靠的互操作,能否發揮其應有的功能和性能,這些問題都還是未知數。專業化的存儲系統集成,對互操作性的測試認證是其中一項至關重要的業務,這是他們必須向用戶承諾的一種保證。用戶的風險在這里被轉嫁而去了。 可見,存儲產品提供商的市場在於系統集成,系統集成商的市場才是最終用戶。專業化的存儲系統集成就是要作用戶的好參謀,而系統結構和數據管理策略的設計規劃以及系統投入運行後的服務保障是最重要的工作。 渠道+夥伴 市場是最富於理性的。誰能提供用戶需要的東西,用戶就會去找誰。對於存儲系統來說,用戶需要的就是在容量、性能、可用性、可管理性等各方面都滿足自己的應用需求。作為一家存儲產品生產廠商,不論是提供某種產品還是提供全線的存儲產品,都只有把它們變成存儲系統才能走向用戶、走向市場。如果沒有存儲系統集成商,產品生產廠商只好自己來完成構建用戶存儲系統的任務,然而這與現代社會專業化分工逐步細化的趨勢是背道而馳的。產品生產廠商的優勢顯然在於產品的設計、製造技術,只有那些規模非常龐大的廠商才有實力配備自己的系統集成咨詢機構,而且這類機構的業務也在向獨立運作的方向發展。這樣一來,大型存儲廠商的產品部門和系統集成咨詢部門到更像是同一股東名下的不同企業。作為存儲產品的研發和生產廠商,要想打開產品通向市場的大門,無論如何都離不開專業存儲系統集成商的配合。 存儲產品的互操作性不僅是用戶和系統集成商關心的問題,也是產品進入市場的關鍵環節。專業化的存儲系統集成商,由於其日常業務之一就是研究各類產品的互操作問題,所以由他們來為各存儲產品生產廠商進行互操作性驗證,其綜合成本應該是最低的。就拿朗登科技有限公司來說,它已經把自己明確地定位於「存儲系統設計院」,建立了十分完善的存儲系統驗證演示中心,在這里進行存儲產品的互操作性驗證當然是駕輕就熟,已經為不少國內外產品做過此類驗證。 最後需要指出一點,存儲系統集成決不是一味地向用戶傾銷新產品。相反,如何充分利用用戶原有的存儲資源,充分保護用戶已有的投資,根據實際需要確定是否需要增加新的投入以及投入的力度和策略,這才是真正的專業存儲系統集成商應該做的事情。在這里,存儲資源和企業數據的整合與管理達到了和諧與統一。對於存儲產品製造商來說,產品流向最終用戶的渠道絕不止一條,但專業化的存儲系統集成不僅將為存儲產品流向最終用戶提供最暢通的渠道,而且將自己的技術和經驗附加在產品之上,無疑是為產品做了進一步的增光添彩。
❼ 如何解決存儲器和CPU之間的時序配合問題,述說其詳細過程
http://blog.21ic.com/user1/3794/archives/2007/40244.html
分享】存儲器與CPU的連接2007-7-19 16:46:00
存儲器與CPU的連接
存儲器與CPU或系統匯流排的連接,這個題目很大。注意到以位元組為單位組織的存儲器是16位寬度、乃至32位寬度的存儲器的基礎,本著由易到難、由淺入深的原則,這里先考慮以位元組為單位組織的存儲器與8位CPU的連接,在下一節介紹16位寬度的存儲器與16位CPU(以8086為例)的連接,在後面的章節再討論32位CPU(以80386為例)的存儲器組織。
在考慮存儲晶元類型時,也是先考慮與CPU連接較為方便的SRAM和ROM,然後再指出DRAM與CPU連接時要特別考慮的地方。
在存儲器與CPU連接時一般要考慮以下幾個問題:
·CPU匯流排的負載能力。
·CPU與存儲器速度的配合問題。
·存儲器的地址空間分配。
·讀/寫控制信號的連接。
·數據線的連接。
·地址線的連接與存儲晶元片選信號的產生。
1.CPU匯流排的負載能力
CPU匯流排的驅動能力有限,通常為一到數個,TTL負載,因此,在較大的系統中需要考慮匯流排驅動。一般做法是,對單向傳送的地址和控制匯流排,可採用三態鎖存器(如74LS373、8282等)和三態單向驅動器(如74LS244)等來加以鎖存和驅動;對雙向傳送的數據匯流排,可採用三態雙向驅動器(如74LS245、8286等)來加以驅動。三態雙向驅動器也稱匯流排收發器或數據收發器。
2.CPU與存儲器速度的配合問題
每一種存儲晶元都有自己固有的時序特性,這在前面已多次講到。在和cPu相連時必須處理好時序的配合問題。處理這個問題應以CPU的時序為基準,從CPU的角度提要求。
例如,存儲晶元讀取時間應小於CPU從發出地址到要求數據穩定的時間間隔;存儲晶元從片選有效到輸出穩定的時間應小於系統自片選有效到cPu要求數據穩定的時間間隔。如果沒有滿足要求的存儲晶元,或者出於價格因素而選用速度較慢的存儲晶元時,則應提供外部電路,以產生READY信號,迫使CPU插入等待時鍾Tw。看一個具體的例子,2114-2的讀取時間最大為200 ns,而cPu要求的從地址有效到數據穩定的時間間隔為150 ns,則不能使用2114—2,可選用比它快的晶元。如果出於價格因素,一定要用2114—2,則需要設計READY產生電路,以便插入Tw。
3.存儲器的地址空間分配
內存通常分為RAM和ROM兩大部分,而RAM又分為操作系統佔用區和用戶區。另外,目前生產的存儲器晶元,單片的容量仍然是有限的,即它的定址空間是有限的,一般要由若干晶元組成一個存儲器。所以,在和CPU連接時需進行存儲器的地址空間分配,即需要事先確定每個晶元(或由「×l位」或「×4位」晶元組成的晶元組)所佔用的地址空間。
4.讀/寫控制信號的連接
總的原則是CPU的讀/寫控制信號分別和存儲器晶元的讀/寫信號輸入端相連。實際上,一般存儲器晶元沒有讀輸入端,是用寫無效時的片選信號兼作讀信號。有的存儲器晶元設有輸出允許()引腳,一般將該引腳和CPU的讀信號相連,以便該片被選中且讀信號有效時將片內數據輸出三態門打開。對於不需要在線編程的ROM晶元,不存在寫信號的連接。
5.數據線的連接
這個問題與存儲器的讀/寫寬度有關,而存儲器讀/寫的最大寬度一般為CPU對外數據匯流排的位數。在考慮存儲器與CPU的數據線連接時,總的原則是:如果選用晶元的晶元字和所要設計的存儲器的讀/寫寬度相同,則直接將它的數據線分別和CPU的數據線相連;如果晶元字的位數小於所要設計的存儲器的讀/寫寬度,則需進行「位擴展」,即用幾片組合在一起,使它們的晶元字位數的總和等於存儲器的讀/寫寬度,將它們的數據線分別和CPU的數據線按對應關系相連。
這里以8位CPU配8位寬度的存儲器為例。若選用「×8位」存儲晶元,則將它的8根數據線分別和CPU的8根數據線相連即可;而選用晶元字不足8位的存儲晶元,則需要用幾片(「×1位」晶元需8片,「×4位」位晶元需2片)才能構成一個8位寬度的存儲器,這時,需將這些晶元的數據線按位的對應關系分別和CPU的8根數據線相連。
有些存儲晶元,數據的輸入和輸出分別緩沖,一位數據設置DIN和DOUT兩個數據線引腳。對於這種晶元,需將一位的DIN和DOUT引腳連起來,再和CPU的一根數據線相連。
6.地址線的連接及存儲晶元片選信號的產生
一個存儲器系統通常需要若干個存儲晶元。為了能正確實現定址,一般的做法是,將cPu或系統的一部分地址線(通常是低位地址線,位數取決於存儲晶元的容量)連到所有存儲晶元,以進行片內定址(存儲晶元內均設有地址解碼器);而用另一部分地址線(高位地址線)進行晶元選擇。存儲器系統設計的關鍵在於如何進行晶元選擇,即如何對高位地址解碼以產生晶元的片選信號,常用以下三種方法:
(1)線選法
用一根地址線直接作一個存儲晶元的片選信號。例如,一台8位微機,有16根地址線,現要配2 KB RAM和2 KB ROM,均選用2 K×8位的晶元,則各需一片。這時可採用一種最簡單的地址選擇方法,如圖3.24所示。將CPU的地址線的低11位(A10~A0)和兩個晶元的地址線分別相連,晶元的片選直接和其他的高位地址線中的一根相連,圖中A15反相後接RAM的,A14反相後接ROM的。這樣,A15、A14為1 0時選中RAM片,為0 1時選中ROM片。
這里分析一下RAM晶元佔用地址空間的情況。未用的地址位(這里是A13~A11)通常取0,即RAM晶元的設計地址空間為8000H~87FFH。將A15、A14固定為1 0,A10一AO作片內定址,當A13~A11取不同的組合時,可形成包括上述設計空間在內的8個區域。除去設計空間外,其他區域是:8800H~8FFFH,9000H~97FFH,…,B800H~BFFFH。由於A13~A11沒有參加解碼,訪問這7個區域中的任何一個單元都會影響到設計空間中相應的單元,因此,這7個區域不得他用。可以認為這些區域也被該RAM晶元所佔用著,稱這些區域為設計空間的重疊區。對於該例中的ROM晶元,同樣也存在7個重疊區,讀者可自行分析。
線選法的優點是簡單、無需外加選擇電路;缺點是不能有效地利用地址空間,也不便於系統的擴充。該方法可用在存儲容量需求小,且不要求擴充的場合,例如單片機應用系統。
(2)全解碼
全部地址線參加解碼,除去進行片內定址的低位地址線外,其餘地址線均參加解碼,以進行片選。例如,一台8位微機,現要求配8 KB RAM,選用2 K×8位的晶元,安排在64 KB地址空間低端的8 KB位置。圖3.25所示為該8 KB RAM與CPU(或系統匯流排)的連接。圖中74Lsl38是3線一8線解碼器。它有3個代碼輸入端c、B、A(A為低位)和8個解碼輸出端Y0~Y7。74LSl38還有3個使能端(或叫允許端)G1、和,第一個為高電平有效,後兩個為低電平有效。只有當它們為l 0 0時,解碼器才進行正常解碼;否則,解碼器不工作,所有的輸出均無效(為高)。表3.5是74LSl38的真值表。此外,常用的3線一8線解碼器還有8205,其輸入/輸出特性和74LS138完全一樣,只是使用了另一組信號名稱。
從圖3.25中可以看到,除片內定址的低位地址線外,高位地址都參與了解碼。根據圖中的接法,當A15~A1l為00000時,YO有效,選中左起第一片;為00001時,Y1有效,選中左起第二片,其他依此類推。
全解碼的優點是可利用全部地址空間,可擴充性好;缺點是解碼電路開銷大。
(3)部分解碼
它是前兩種方法的綜合,即除進行片內定址的低位地址線外,其餘地址線有一部分參加解碼以進行片選。以圖3.26所示為例,這里最高位A15沒有參加解碼。因為A15沒有參加解碼,所以也存在重疊區問題。
部分解碼是界於線選法和全解碼之間的一種方法,其性能也界於二者之間:可定址空間比線選法大,比全解碼小;而解碼電路比線選法復雜,比全解碼簡單。
上面圍繞存儲晶元片選信號的產生,說明了三種解碼方法。這些方法也適用於後面要介紹的I/O埠的定址。
❽ 計算機 存儲器為什麼要分層 分層結構有什麼好處
存儲器是計算機的核心部件之一。如何以合理的價格搭建出容量和速度都滿足要求的存儲系統,始終是計算機體系結構設計中的關鍵問題之一。
計算機中有不同容量,不同速度的存儲器,你怎麽辦?要把它們組織管理在一起,按照一定的體系結構組織起來,
以解決存儲容量、存取速度和價格之
間的矛盾。存儲器一分錢一分貨,親
設計讓整個存儲系統速度接近M1而價格和容量接近Mn
❾ 嵌入式系統的存儲器設計需要考慮哪些方面
常見的嵌入式系統
Linux、uClinux、WinCE、PalmOS、Symbian、eCos、uCOS-II、VxWorks、pSOS、Nucleus、ThreadX 、Rtems 、QNX、INTEGRITY、OSE、C Executive
什麼是嵌入式操作系統?嵌入式操作系統是一種支持嵌入式系統應用的操作系統軟體,它是嵌入式系統的重要組成部分。嵌入時操作系統具有通用操作系統的基本特點,能夠有效管理復雜的系統資源,並且把硬體虛擬化。
從應用角度可分為通用型嵌入式操作系統和專用型嵌入式操作系統。常見的通用型嵌入式操作系統有Linux、VxWorks、Windows CE.net等。常用的專用型嵌入式操作系統有Smart Phone、Pocket PC、Symbian等。
按實時性可分為兩類:
實時嵌入式操作系統主要面向控制、通信等領域。如WindRiver公司的VxWorks、ISI的pSOS、QNX系統軟體公司的QNX、ATI的Nucleus等。
非實時嵌入式操作系統主要面向消費類電子產品。這類產品包括PDA、行動電話、機頂盒、電子書、WebPhone等。如微軟面向手機應用的Smart Phone操作系統。
❿ 計算機組成原理 關於畫出存儲器的結構圖的問題
這題你不要問人,功利的講,畫圖很麻煩,而且這是大題,網路80分差不多。。。。
而且,這個你可以做出來的,參照組成原理存儲器設計的第一個例題,第一步列出rom和ram需要的存儲空間的二進製表示,第二選擇最少的元件,第三部連接串聯還是並聯的連接。做完這么兩三道,就不會忘啦!以後也會很容易,花你半小時時間久能掌握這個知識點,期末考試和考研必考!相信我吧。
對不起,實在是畫圖太麻煩了