當前位置:首頁 » 服務存儲 » esxi集群存儲
擴展閱讀
webinf下怎麼引入js 2023-08-31 21:54:13
堡壘機怎麼打開web 2023-08-31 21:54:11

esxi集群存儲

發布時間: 2022-08-12 05:02:10

① 如何將一台esxi主機加入現有的集群,掛載共享存儲

esxi加入現有集群,右鍵集群,添加主機,把密碼什麼的輸入就可以了
添加進來的主機掛載共享存儲,首先,確保共享存儲對新主機開放了許可權,san存儲的話,在存儲管理界面里把LUN分配給新主機的HBA卡,如果是iscsi存儲,nas什麼的,確保新主機有訪問的許可權,然後在新主機里掃描新存儲,即可完成
搞不定就找我,私信.

② 如何糾正錯誤的ESXi共享存儲配置

在小型VMware環境當中,錯誤配置共享存儲的情況並不少見。花費一些時間來糾正這些錯誤可以在ESXi主機超過負載或者宕機時避免很多問題。
一個成功的vSphere部署需要包含三個基本部分:多個相同的ESXi伺服器、共享存儲和vCenter。任何具有多個ESXi伺服器的數據中心都應該使用共享存儲,並且對於所有伺服器集群都保證一直可用。
對於一些vSphere核心技術來說,比如v

Motion、分布式資源調度(DRS)和高可用性(HA),共享存儲是一個前提條件。vMotion可以在不產生宕機時間的情況下,將一個運行中的虛擬機從一台ESXi主機遷移到另一台上。DRS利用vMotion技術將虛擬機移動到其他的ESXi主機上,以避免產生CPU和內存不足的情況。如果一台ESXi伺服器發生故障,vSphere HA會在集群中的其他ESXi主機上重啟正在運行的虛擬機。DRS和HA只能用於存放在共享存儲上的虛擬機;不論是HA還是DRS遷移,虛擬機在存儲上的位置都不會發生改變。
為了最大限度地發揮HA和DRS的作用,虛擬機使用的所有存儲都必須對集群中的每一台ESXi伺服器保證可用。連續的共享存儲使用的配置取決於存儲網路類型:光纖通道(FC)、iSCSI還是網路文件系統(NFS)。對於FC和iSCSI存儲,需要確保存儲陣列對於每個ESXi主機都使用相同的邏輯單元號(LUN)。一些陣列通過使用分組可以輕松實現這個需求,但是其他陣列就需要你為每個主機都單獨進行配置。
對於FC,你需要將FC交換機配置在一致的分區當中,以使得所有的主機都能夠找到陣列。如果使用的是iSCSI,那麼ESXi主機需要使用同樣的發現設定、同樣的動態發現IP地址列表。
如果使用的是NFS,那麼大部分的設定都可以在ESXi伺服器上完成。確保在每個ESXi主機上都使用相同的NFS伺服器主機名和共享路徑。如果一個ESXi主機使用NFS伺服器的IP地址,另外一個使用主機名,而第三台ESXi主機使用全限定名,那麼vCenter將認為它們使用的是不同的數據存儲。NFS伺服器主機名和共享路徑在所有的主機上都必須是相同的,這樣vCenter才能將它們識別為同一個數據存儲。可以使用vSphere Command Line或者PowerCLI腳本對ESXi主機的NFS和iSCSI進行自動配置,這樣可以更為輕易地確保使用同樣的命令來部署每個主機。
在vSphere Client中的Maps標簽頁下,可以輕松地查看集群的一致性存儲。在vSphere Client的主機和集群視圖中,選擇集群——而不是ESXi主機——點擊Maps標簽,之後關閉所有從主機到數據存儲的依賴關系聯線,點擊應用關系。現在,就可以看到主機和數據存儲的網狀連接圖了。
如果每一個數據存儲都連接到每一台主機上,那麼一切都不會有問題。那些只連接到一部分主機的數據存儲會引發問題。如果只有一部分主機能夠找到數據存儲,那麼只有這些主機可以使用數據存儲來運行虛擬機。沒有連接到這些數據存儲的主機可能進行了錯誤的配置。一些數據存儲只連接到一台ESXi主機;這通常是ESXi主機內部的本地磁碟,不能進行共享。注意不要將虛擬機放置在本地數據存儲上,除非虛擬機只是在ESXi主機上使用,比如vShield代理虛擬機。
開啟虛擬機到數據存儲的關系會使得網路關系圖更加復雜,但是可以顯示出哪些虛擬機位於共享存儲上,哪些在使用非共享數據存儲。如果你的一些虛擬機位於非共享存儲上,想一想是否能夠通過存儲vMotion將這些虛擬機遷移到一個另外的數據存儲當中;需要確保目的存儲上有足夠的空餘空間。從VM菜單中選擇Change Datastore,選擇目標數據存儲進行遷移,之後等待。

③ 什麼技術能實現多台伺服器虛擬成一台伺服器如何配置

可以通過安裝虛擬機實現,利用vmware公司的esxi這款產品實現。

配置方法:

esxi裡面自帶有集群這一項功能,可將多台伺服器添加到集群中來,集群建好後還可以利用裡面的ha(高可用性)、drs(分布式存儲調試),evc(多硬體兼容)等多種特性將多台伺服器的硬體資源加入到一個資源池裡,可對硬體的資源做分配。

以百分比的方式做權重,可操控這個資源池裡的硬體資源分別分配多少到平台上建好的虛擬機上,可用於生產環境中。

esxi是vmware的虛擬機軟體的企業版,底層系統直接安裝在伺服器上,無需像windows server 2008的hyper v那樣依賴於windows操作系統,不用再多佔用多餘的硬體資源,性能非常好。

esxi簡介:

ESXi專為運行虛擬機、最大限度降低配置要求和簡化部署而設計。只需幾分鍾時間,客戶便可完成從安裝到運行虛擬機的全過程,特別是在下載並安裝預配置虛擬設備的時候。

在VMware Virtual Appliance Marketplace 上有800多款為VMware hypervisor 創建的虛擬設備。

如今,ESXi已經實現了與Virtual Appliance Marketplace的直接整合,使用戶能夠即刻下載並運行虛擬設備。這為即插即用型軟體的交付與安裝提供了一種全新和極其簡化的方式。



④ esxi4 HA集群問題,求助

在小型VMware環境當中,錯誤配置共享存儲的情況並不少見。花費一些時間來糾正這些錯誤可以在ESXi主機超過負載或者宕機時避免很多問題。
一個成功的vSphere部署需要包含三個基本部分:多個相同的ESXi伺服器、共享存儲和vCenter。任何具有多個ESXi伺服器的數據中心都應該使用共享存儲,並且對於所有伺服器集群都保證一直可用。
對於一些vSphere核心技術來說,比如v

Motion、分布式資源調度(DRS)和高可用性(HA),共享存儲是一個前提條件。vMotion可以在不產生宕機時間的情況下,將一個運行中的虛擬機從一台ESXi主機遷移到另一台上。DRS利用vMotion技術將虛擬機移動到其他的ESXi主機上,以避免產生CPU和內存不足的情況。如果一台ESXi伺服器發生故障,vSphere HA會在集群中的其他ESXi主機上重啟正在運行的虛擬機。DRS和HA只能用於存放在共享存儲上的虛擬機;不論是HA還是DRS遷移,虛擬機在存儲上的位置都不會發生改變。
為了最大限度地發揮HA和DRS的作用,虛擬機使用的所有存儲都必須對集群中的每一台ESXi伺服器保證可用。連續的共享存儲使用的配置取決於存儲網路類型:光纖通道(FC)、iSCSI還是網路文件系統(NFS)。對於FC和iSCSI存儲,需要確保存儲陣列對於每個ESXi主機都使用相同的邏輯單元號(LUN)。一些陣列通過使用分組可以輕松實現這個需求,但是其他陣列就需要你為每個主機都單獨進行配置。

⑤ esxi6.7 集群能不能管理7.0的esxi

可以的.但是你的實體機的配置要達到esxi的要求.一般是裝在伺服器上的。

⑥ 如何在伺服器級別部署存儲虛擬化技術

主機級別的方案中通常只是虛擬化直連主機的存儲,當然也有一些可以部署在一個SAN環境中的多台存儲子系統上。
早先的存儲虛擬化產品常用於簡化內部磁碟驅動器和伺服器外部直連存儲的空間分配,以及支持應用集群。Veritas Volume Manager和Foundation Suite就是首批這類解決方案,這類方案使得存儲擴展,以及為應用程序和文件伺服器提供空間更為簡單快速。
隨著存儲需求的增長遠遠超過直連存儲所能提供的范圍,存儲虛擬化逐漸成為存儲陣列中的一種容量提供方式。而容量持續增長以及諸如iSCSI等小型IT組織負擔得起的共享存儲技術的出現又使得存儲虛擬化技術也融合進基於網路的設備和運行在通用硬體的軟體里。
不過現今的伺服器和桌面虛擬化技術興起給存儲虛擬化技術帶來了新的生機,而基於主機的存儲虛擬化技術正在逐漸回歸。伺服器虛擬化平台必需要基於共享存儲體系架構來實現一些關鍵特性,比如VMware的vMotion和Distributed Resource Schele (DRS)。通過傳統的SAN架構自然可以實現這種共享存儲體系架構,不過越來越多的IT組織開始尋求更簡單的方式來實現共享存儲。基於主機的虛擬化技術就是方式之一。
諸如VMware之類的伺服器虛擬化供應商認為存儲是妨礙虛擬化技術大規模普及的瓶頸之一。這些Hypervisor供應商已經實現了處理器和內存資源的抽象,實現更好的控制並提高資源利用率,他們自然而然也會希望這樣控制存儲。不過將存儲控制功能整合到主機伺服器端,稱之為「存儲Hypervisor」時會帶來一些潛在的問題。處理一些在虛擬伺服器和虛擬桌面環境中至關重要的存儲服務,諸如快照、克隆和自動精簡配置時,會嚴重影響主機伺服器的性能。
Virsto的解決方案
Virsto開發出了一款軟體解決方案,安裝在每台主機伺服器上(無論是一台虛擬機或Hypervisor上的過濾驅動器)並在主存儲上創建一個虛擬化層,稱為Virsto存儲池。其同時創建一個高性能磁碟或者固態存儲區域,成為「vLog」。讀操作會直接指向主存儲,不過寫操作會通過vLog進行,這會給請求的虛擬機或應用程序發回一個確認。然後vLog將這些寫操作非同步地分布寫入主存儲,從而減少對寫性能的影響。該存儲池可以容納多至4層的存儲方式,包括固態存儲和各類型的磁碟驅動器。
緩存的工作方式類似,vLog通過在存儲前端降低耦合度改善了存儲性能,降低了後端存儲的延遲。其同時將前端主機的隨機寫操作變為順序方式,實現後端存儲的最佳性能。基於Virsto主機的存儲虛擬化軟體實現了以上這些功能。
虛擬存儲設備
基於主機的存儲虛擬化的另一項應用實例是虛擬存儲設備(VSA)
VSA是運行在虛擬機上的存儲控制器,其虛擬化統一集群中的主機所直接連接的存儲。VSA提供一個主機使用的簡易的存儲共享體系架構,並支持高可用性、虛擬機遷移,並改善存儲提供方式。對於很多企業,這種方式可以替代原本需要建立並管理傳統SAN或NAS來支持虛擬伺服器和桌面的體系架構。
vSphere Storage Appliance。VMware的vSphere Storage Appliance以一個虛擬機的方式運行,從在2個或3個節點集群中,每個ESX/ESXi主機所直連的DAS存儲中,創建一個共享存儲池。VMware VSA提供每個節點的RAID保護,並在同一集群的各個節點之間提供鏡像保護。雖然從技術角度上看,VMware VSA是一個基於文件的體系架構,不過其亦為集群中每台主機提供數據塊級別的存儲虛擬化,並用戶可以從這種部署方式中獲取和基於數據塊的共享存儲一樣的收益。
HP的LeftHand Virtual SAN Appliance。雖然和VMware VSA的功能類似,P4000 VSA軟體可以支持每台主機直連DAS以外的方式。其還允許使用iSCSI或FC SAN等外部存儲來創建共享存儲池。這就意味著可以將如何可用的存儲,本地存儲或用於容災的異地存儲,轉變為LeftHand存儲節點。P4000t提供快照和自動精簡配置,並且支持Hyper-V和VMware。
DataCore的SANsymphony-V。DataCore的解決方案是通過在一個虛擬機中部署其SANsymphony軟體來整合其它各個VMware,Hyper-V或XEN主機的直連存儲,形成共享存儲池。SANsymphony-V可以和HP的解決方案那樣虛擬化外部的網路存儲,並且該軟體可以在遷移到傳統的共享存儲體系架構時部署在外部伺服器上。SANsymphony-V同時提供各類存儲服務,譬如快照、自動精簡配置、自動化分層和遠程復制。
FalconStor的NSS Virtual Appliance。FalconStor的Network Storage Server Virtual Appliance(NSSVA)是該公司NASS硬體產品中唯一支持的VMware版本,用網路上其它主機的直連存儲創建一個虛擬存儲池。和DataCore和LeftHand的解決方案類似,該存儲池可以擴展到網路上任何可用的iSCSI存儲上。該NSS Virtual Appliance包括快照、自動精簡配置、讀/寫緩存、遠程復制和卷分層等存儲功能。
基於主機的存儲虛擬化解決方案是目前大多使用在虛擬化伺服器和虛擬化桌面環境中,用以實現環境的高可用性特性,以及改善存儲性能、利用率和管理效率。

⑦ 使用VMware VSAN做存儲要注意些什麼

可以參考這里的VMware VSAN(1.0版)中文版FAQ:https://community.emc.com/message/827792,
主機配置
Q1.在1.0 版本中,一個VSAN 集群中至少需要幾台主機?
A1.3 台

Q2.至少需要多少台主機貢獻本地存儲?
A2.至少需要3 台主機貢獻本地存儲

Q3.是否VSAN 集群中的所有ESXi主機都需要貢獻存儲?
A3.不是。主機可以不貢獻本地存儲,只使用vsanDatastore。但是作為最佳實踐,VMware推薦所有主機的配置都類似/相同。

Q4.對1.0 版本而言,VSAN集群中最多可以有幾台主機?
A4.VSAN設計的上限是vSphere集群,但是在beta版本中,我們加了一個軟限制:每個集群的最大節點數目是8。

Q5.那些不為集群貢獻本地存儲的主機,也計入8台主機的軟限制中么?
A5.是的。VSAN中的所有主機,不管它是否貢獻本地存儲,都會被計算入「每個集群8台主機」的軟限制中。

Q6.VSAN 需要哪個版本的vSphere?
A6.vSphere5.5。VSAN已經包含在這個發行版中,不需要額外安裝組件或者VIB。

Q7.如何擴大VSAN集群?
A7.和添加1台主機到集群中一樣容易。

⑧ 如何解決虛擬機vSphere存儲訪問故障

vSphere問題初現

接到用戶反應眾多虛擬機無法使用的故障報告後,使用vSphere Client登錄到vCenter Server中,在ESXi主機配置選項卡下的存儲適配器選項,發現有一個數據存儲處於「非活動」狀態,嘗試執行「全部重新掃描」鏈接,在彈出的重新掃描窗口,勾選默認的「掃描新的存儲設備」以及「掃描新的VMFS卷」,然後點擊確認。掃描完成後,發現原來狀態為「非活動」的數據存儲仍舊不可訪問。
依次點擊「主頁」->「清單」->「數據存儲和數據存儲集群」選項,進入到數據存儲列表,選中狀態為「非活動」的數據存儲。如下圖所示,選中「任務與事件」選項卡,查看與該數據存儲相關的事件。發現大量的錯誤信息:「與存儲設備…連接丟失,路徑…已斷開」.

⑨ esxi 6.0 怎麼添加存儲

esxi 6.0 怎麼添加存儲
將虛擬機目錄上傳到ESX伺服器存儲中

vsphere client選擇伺服器,右側「配置」——「存儲器」——選擇存儲設備——「瀏覽數據存儲」
找到要添加的虛擬機vmx文件,右鍵——「添加到清單」,over
在小型VMware環境當中,錯誤配置共享存儲的情況並不少見。花費一些時間來糾正這些錯誤可以在ESXi主機超過負載或者宕機時避免很多問題。
一個成功的vSphere部署需要包含三個基本部分:多個相同的ESXi伺服器、共享存儲和vCenter。任何具有多個ESXi伺服器的數據中心都應該使用共享存儲,並且對於所有伺服器集群都保證一直可用。
對於一些vSphere核心技術來說,比如v
Motion、分布式資源調度(DRS)和高可用性(HA),共享存儲是一個前提條件。vMotion可以在不產生宕機時間的情況下,將一個運行中的虛擬機從一台ESXi主機遷移到另一台上。DRS利用vMotion技術將虛擬機移動到其他的ESXi主機上,以避免產生CPU和內存不足的情況。如果一台ESXi伺服器發生故障,vSphere HA會在集群中的其他ESXi主機上重啟正在運行的虛擬機。DRS和HA只能用於存放在共享存儲上的虛擬機;不論是HA還是DRS遷移,虛擬機在存儲上的位置都不會發生改變。

⑩ 如何在一台ESXi主機上搭建一整套VSAN集群的環境

就來介紹下如何在一台ESXi主機上配置3個ESXi並組建一個VSAN集群。昨天,我介紹了如何在一台ESXi主機上安裝ESXi的客戶機(當然這些ESXi本身也是主機哦,還可以在其上部署虛擬機,雖然性能會比較差)。因此,首先就是根據上面所說的硬體條件創建3個虛擬機用來安裝ESXi5.5u1。我的配置是每一台主機都包括:
4個CPU(最少2個)
8GB內存
3個硬碟,一個4GB(用來裝系統)、一個40GB(模擬成SSD)、一個400GB(提供給vsan存放數據)
2個網路適配器,一個在子網192.168.10.x用於管理和虛擬機網路,一個在子網192.168.20.x,用於VSAN VMkernel
虛擬機版本10

注意,為了讓ESXi客戶機有2個網路適配器,在ESXi主機(本例中起名為esxi01)上的網路配置至少要配置2個不同的埠組,我將這2個埠組分別配置在了2個不同的vSwitch上:
vSwitch0,默認vSwitch,配置有管理網路(VMKernel)和VM Network 10埠組
vSwitch2,新增的vSwitch,配置有VM Network 20埠組
此外,我還因為有iSCSI存儲,因此配置了2個iSCSI的VMKernel分別在vSwitch1和vSwitch2上。
vSwitch0和vSwitch2的配置截圖如下:

這里有一點要說明的是,如果僅為了vsan網路的通信,vSwitch2可以沒有上聯的物理適配器,我的截圖裡面配置了上聯的物理適配器是因為我還有一個iSCSI2的VMkernel需要使用。

安裝3台虛擬機的過程就不贅述了,只要你按照我昨天的文章來操作,就可以順利完成。安裝完之後,照例是配置靜態IP地址、FQDN主機名、禁用IPv6、DNS並開啟SSH和ESXi SHELL以備之後在控制台輸入命令行使用。

需要強調一次的是,在你的實驗網路中,需要配置好一台域控制器,它同時也是DNS伺服器,並事先在DNS伺服器裡面添加好靜態的ESXi主機的DNS項。在我的實驗環境中,它們是:
esxi55u01.home.lab – 192.168.10.31
esxi55u02.home.lab – 192.168.10.32
esxi55u03.home.lab – 192.168.10.33
請在黃色DCUI界面(安裝完ESXi主機的初次配置界面)裡面測試一下網路,如果主機域名也能順利解析,那就說明網路配置都完備了。DNS對於正確配置VMware集群來說非常重要。

接下去就是用vSphere Web客戶端再次連接到vCenter(我的是vCSA),把這幾台新安裝的ESXi主機添加進來,添加的時候要用FQDN,不能是IP地址。

現在讓我們來看一看這些ESXi主機的磁碟情況(左邊窗格點選主機,在右邊窗格分別選擇管理,存儲器和存儲設備,如圖所示),可以看見置備的3個磁碟都是非SSD。下面要克服的問題是怎樣欺騙ESXi,讓它以為其中一塊40GB的磁碟是SSD,這樣才能滿足VSAN配置的必要前提條件。

讓我們進入到這台vSphere ESXi主機的管理控制台界面,在命令行裡面輸入下面的2條命令,就可以完成:

# esxcli storage nmp satp rule add --satp VMW_SATP_LOCAL --device mpx.vmhba1:C0:T1:L0 --option=enable_ssd
# esxcli storage core claiming reclaim -d mpx.vmhba1:C0:T1:L0

注意,這里的設備ID要填寫你所想要變成SSD的那個磁碟,設備ID就是長的像mpx.vmhba1.C0:T1:L0的那個。
輸入命令後,如果沒有填錯,是不返回結果的。回到vSphere Web客戶端,刷新一下,你就會發現那個40GB的磁碟的類型變成SSD了。

關於VSAN的配置,LeoXiao同學寫的很不錯,就不多羅嗦了。你可以參考他的文章。

我借個圖說明下順序:

多說一句,為了測試NIOC功能,而這個功能只有在分布式交換機上才有,所以,建議VSAN集群配置的時候先配置好分布式交換機,並且把VSAN專用的VMkernel建在分布式交換機上。

最後,給大家看一下,要搭建一個VSAN集群的測試環境,在一台主機上至少要配置並開啟5台虛擬機——包括1台域控制器,1台vCenter和3台ESXi主機(每台都配了8GB內存哦)。

雖然還是有一些網路傳輸上不穩定的問題,不過vsan數據存儲好歹是建起來了。