當前位置:首頁 » 服務存儲 » zfs存儲怎麼用
擴展閱讀
webinf下怎麼引入js 2023-08-31 21:54:13
堡壘機怎麼打開web 2023-08-31 21:54:11

zfs存儲怎麼用

發布時間: 2022-11-29 11:42:22

1. 如何使光纖通道存儲可用於 Oracle Solaris

Oracle Solaris 10 和 Oracle Solaris 11 自帶了一個光纖通道發起方系統,您可以對它進行配置以便將 Sun ZFS
存儲設備提供的光纖通道 (FC) LUN 集成到 Oracle Solaris 環境中。本文介紹如何配置 Oracle Solaris 光纖通道系統以及如何配置
Sun ZFS 存儲設備來配置供 Oracle Solaris 伺服器訪問的 FC LUN。可以使用瀏覽器用戶界面 (BUI) 完成這些配置。

本文做出以下假設:

已知 Sun ZFS 存儲設備的 root 帳戶口令。

已知 Sun ZFS 存儲設備的 IP 地址或主機名。

已配置好 Sun ZFS 存儲設備使用的網路。

Sun ZFS 存儲設備已配置有具有足夠可用空閑空間的存儲資源池。

已知 Oracle Solaris 伺服器的 root 帳戶口令。

Sun ZFS 存儲設備已經連接到光纖通道交換機。

已在 FC 交換機上配置了相應的區域,允許 Oracle Solaris 主機訪問 Sun ZFS 存儲設備。

配置 Oracle Solaris FC 系統

為了讓 Sun ZFS 存儲設備和 Oracle Solaris 伺服器彼此標識,每個設備的 FC 全球編號 (WWN)
必須在另一個設備中注冊。您必須確定在 FC 交換機上實現的某些形式 FC 區域的 WWN。

主機的 FC WWN 用於向 Sun ZFS 存儲設備標識主機,並且需要它來完成本文中的配置過程。

WWN 來自在 Oracle Solaris 主機和 Sun ZFS 存儲設備中安裝的 FC 主機匯流排適配器 (HBA)。

為了配置 Oracle Solaris FC 系統,您需要知道 Sun ZFS 存儲設備的 WWN。在傳統的雙結構存儲區域網路 (SAN) 中,Sun
ZFS 存儲設備至少有一個 FC 埠連接到每個結構。因此,您必須至少確定兩個 FC WWN。

標識 Sun ZFS 存儲設備 FC WWN

首先,您需要建立一個到 Sun ZFS 存儲設備的管理會話。

在 Web 瀏覽器的地址欄中輸入一個包含 Sun ZFS 存儲設備的 IP 地址或主機名的地址,如以下 URL 所示:

https://<ip-address or host name>:215

將顯示登錄對話框。

輸入用戶名和口令,然後單擊 LOGIN。

成功登錄到 BUI 之後,您可以通過 Configuration 選項卡標識 WWN。

單擊 Configuration > SAN > Fibre Channel
Ports。

將顯示安裝在 Sun ZFS 存儲設備中的 FC 埠。由於每個 HBA 通道只有一個已發現的埠,因此這必須是 HBA 通道本身。

在前面的示例中,埠 1 具有 WWN 21:00:00:e0:8b:92:a1:cf,埠 2 具有 WWN
21:01:00:e0:8b:b2:a1:cf。

在每個 FC 埠框右側的列表框中,應該將 FC 通道埠設置為 Target。如果情況並非如此,則 FC
埠可能用於其他用途。在調查原因之前,請不要更改設置。(一種可能的原因是可能用於了 NDMP 備份。)

標識 Oracle Solaris 主機 HBA WWN

如果 Oracle Solaris 主機已經通過相應的電纜連接到 FC 交換機,則使用以下命令來標識 WWN。

要獲得主機的 WWN,輸入以下命令:

root@solaris:~# cfgadm -al -o show_FCP_dev
root@solaris:~#

在該輸出中,您需要的控制器號為 c8 和 c9。當埠類型為
fc-fabric 時,您還可以看到兩個埠都連接到一台 FC 交換機。接下來,查詢這些控制器來確定發現的 WWN。

如果 HBA 埠未用於訪問任何其他連接 FC 的設備,則可使用以下命令來確定 WWN。

root@solaris:~# prtconf -vp | grep port-wwn
port-wwn: 210000e0.8b89bf8e
port-wwn: 210100e0.8ba9bf8e
root@solaris:~#

如果正在訪問 FC 設備,則以下命令將顯示 FC HBA WWN。
root@solaris:~# luxadm -e mp_map /dev/cfg/c8

root@solaris:~#

顯示為類型 0x1f 的最後一個條目 (Unknown type, Host Bus Adapter)
在埠 WWN 條目下提供了相應的 WWN。重復此命令,使用在第 1 步中標識的其他控制器替換
/dev/cfg/c8。

從輸出中,您可以看到 c8 具有 WWN
21:00:00:00:e0:8b:89:bf:8e,c9 具有 WWN
21:01:00:e0:8b:a9:bf:8e。

然後,可以使用 Sun ZFS 存儲設備 HBA 和 Oracle Solaris 主機 HBA WWN 來配置任何 FC 交換機區域。

完成此操作之後,您可以運行以下命令來驗證正確的區域:
root@solaris:~# cfgadm -al -o show_FCP_dev c8 c9

root@solaris:~#

現在,您可以看到可由 Oracle Solaris 主機訪問的 Sun ZFS 存儲設備提供的 WWN。

使用瀏覽器用戶界面配置 Sun ZFS 存儲設備

作為一個統一的存儲平台,Sun ZFS 存儲設備既支持通過 iSCSI 協議訪問數據塊協議
LUN,又支持通過光纖通道協議進行同樣的訪問。這一節講述如何使用 Sun ZFS 存儲設備 BUI 來配置 Sun ZFS 存儲設備,使其能夠識別 Oracle
Solaris 主機並向該主機提供 FC LUN。

定義 FC 目標組

在 Sun ZFS 存儲設備上創建目標組,以便定義 Oracle Solaris 伺服器可通過哪個埠和協議訪問提供給它的 LUN。對於此示例,創建 FC
目標組。

執行以下步驟在 Sun ZFS 存儲設備上定義 FC 目標組:

單擊 Configuration > SAN 顯示 Storage Area Network (SAN)
屏幕

單擊右側的 Targets 選項卡,然後選擇左側面板頂部的 Fibre Channel
Ports

將滑鼠放置在 Fibre Channel Ports 框中,將在最左側出現一個 Move 圖標()

單擊 Move 圖標並將此框拖到 Fibre Channel Target
Groups 框,如圖 4 所示。

拖動橙色框中的條目來創建新的目標組。將創建組,並將其自動命名為 targets-n,其中
n 是一個整數。

將游標移到新目標組條目上。在 Fibre Channel Target Groups 框右側會出現兩個圖標

要重命名新的目標組 targets-0,單擊 Edit 圖標()顯示對話框

在 Name 域中,將默認名稱替換為新 FC 目標組的首選名稱,單擊
OK。本例中用名稱 FC-PortGroup 替換
targets-0。在此窗口中,您還可以通過單擊所選 WWN 左側的框來添加第二個 FC 目標埠。第二個埠標識為 PCIe 1:Port 2。

單擊 OK 保存更改。

單擊 APPLY。 Fibre Channel Target Groups
面板中顯示了如上的更改。

定義 FC 發起方

定義 FC 發起方以便允許從一台或多台伺服器訪問特定卷。應該配置對卷的訪問許可權,以便允許最少數量的 FC
發起方訪問特定卷。如果多個主機可以同時寫入一個指定卷並且使用非共享文件系統,則各主機上的文件系統緩存可能出現不一致,最終可能導致磁碟上的映像損壞。一般對於一個卷,只會賦予一個發起方對該卷的訪問許可權,除非使用的是一種特殊的集群文件系統。

FC 發起方用於從 Sun ZFS 存儲設備的角度出發來定義「主機」。在傳統的雙結構 SAN 中,主機將至少由兩個 FC 發起方來定義。FC
發起方定義包含主機 WWN。為了向 Sun ZFS 存儲設備標識 Oracle Solaris 伺服器,必須在存儲設備中注冊 Oracle Solaris FC
發起方 WWN,為此要執行以下步驟。

單擊 Configuration > SAN 顯示 Storage Area Network (SAN)
屏幕

單擊右側的 Initiators 選項卡,然後選擇左側面板頂部的 Fibre Channel
Initiators

單擊 Fibre Channel Initiators 左側的 圖標顯示 New Fibre Channel Initiator 對話框

如果已在 FC 交換機上配置了區域,則應顯示 Oracle Solaris 主機的 WWN(假設沒有為它們指定別名)。

在對話框底部單擊一個 WWN(如果顯示)預填充全球名稱,或者在 World Wide Name 框中鍵入相應的
WWN。

在 Alias 框中輸入一個更有意義的符號名稱。

單擊 OK。

對於其他涉及 Oracle Solaris 主機的 WWN,重復前面的步驟。

定義 FC 發起方組

將一些相關 FC 發起方組成邏輯組,這樣可以對多個 FC 發起方執行同一個命令,例如,可以使用一個命令對一個組中的所有 FC 發起方分配 LUN
訪問許可權。對於下面的示例,FC 發起方組將包含兩個發起方。注意,在集群中,多個伺服器被視作一個邏輯實體,因此發起方組可以包含更多發起方。

執行以下步驟創建一個 FC 發起方組:

選擇 Configuration > SAN 顯示 Storage Area Network (SAN)
屏幕。

選擇右側的 Initiators 選項卡,然後單擊左側面板頂部的 Fibre Channel
Initiators。

將游標放置在上一節中創建的一個 FC 發起方條目上。此時,在該條目左側會出現一個 Move 圖標()

單擊 Move 圖標並將其拖到右側的 Fibre Channel Initiator
Groups 面板中。此時,在 Fibre Channel Initiators Groups 面板底部出現了一個新的條目(黃色亮顯)

將游標移到新的條目框上,然後釋放滑鼠鍵。此時會創建一個新的 FC 發起方組,其組名稱為
initiators-n,其中 n 是一個整數,如圖 13
所示。

將游標移到新發起方組條目上。在目標發起方組框右側會出現幾個圖標

單擊 Edit 圖標()顯示對話框

在 Name 域中,將新發起方組的默認名稱替換為選定名稱,單擊 OK。本例使用
sol-server 作為該發起方組名稱。

在此對話框中,您可以通過單擊 WWN 左側的復選框向組中添加其他 FC 發起方。

在 SAN 配置屏幕中單擊 APPLY 確認所有修改,如圖 15 所示。

定義 Sun ZFS 存儲設備項目

為了對相關卷進行分組,您可以在 Sun ZFS 存儲設備中定義一個項目。通過使用項目,可以繼承項目所提供文件系統和 LUN
的屬性。還可以應用限額和保留。

執行以下步驟創建一個項目:

選擇 Shares > Projects 顯示 Projects 屏幕

單擊左側面板頂部的 Projects 左側的 圖標顯示
Create Project 對話框

要創建一個新項目,輸入項目名稱,單擊 APPLY。在左側面板的 Projects 列表中出現了一個新項目。

選擇這個新項目查看其所含組件

定義 Sun ZFS 存儲設備 LUN

接下來,您將從一個現有存儲資源池中創建一個 LUN,供 Oracle Solaris 伺服器訪問。在下面的示例中,將創建一個名為
DocArchive1 的精簡供應 64 GB LUN。

我們將使用定義 FC 目標組一節中創建的 FC 目標組
FC-PortGroup 來確保可以通過 FC 協議訪問該 LUN。將使用定義 FC
發起方組一節中定義的發起方組 sol-server 來確保只有在 sol-server
組中定義的伺服器才可以訪問該 LUN。(在本例中,該發起方組只包含一個伺服器。)

執行以下步驟創建一個 LUN:

選擇 Shares > Projects 顯示 Projects 屏幕。

在左側 Projects 面板中,選擇該項目。然後選擇右側面板頂部的 LUNs

單擊 LUNs 左側的 圖標顯示 Create LUN
對話框,如圖 20 所示。

輸入合適的值以配置該 LUN。對於本例,將 Name 設置為
DocArchive1,Volume size 設置為 64 G,並且選中
Thin provisioned 復選框。將 Target Group 設置為 FC 目標組
FC-PortGroup,將 Initiator Group 設置為
sol-server。將 Volume block size 設置為
32k,因為該卷將保存 Oracle Solaris ZFS 文件系統。

單擊 APPLY 創建該 LUN 使其供 Oracle Solaris 伺服器使用。

配置 LUN 以供 Oracle Solaris 伺服器使用

現在我們已准備好了 LUN,可以通過 FC 發起方組使用它了。接著必須執行以下步驟,配置 LUN 以供 Oracle Solaris 伺服器使用:

發起一個連接 Sun ZFS 存儲設備的 Oracle Solaris FC 會話,如清單 1 所示。由於在發起該 FC 會話前已創建了 LUN,該
LUN 將會自動啟用。

清單 1. 發起 Oracle Solaris FC 會話
root@solaris:~# cfgadm -al c8 c9
root@solaris:~# cfgadm -c configure c8::210100e08bb2a1cf
root@solaris:~# cfgadm -c configure c9::210000e08b92a1cf
root@solaris:~# cfgadm -al -o show_FCP_dev c8 c9

root@solaris:~#

驗證對 FC LUN 的訪問,如清單 2 所示。

清單 2. 驗證對 FC LUN 的訪問
root@solaris:~# devfsadm -c ssd
root@solaris:~# tail /var/adm/messages
[...]

[...]

在本例中,多路徑狀態最初顯示為 degraded,因為此時只識別了一個路徑。進一步,多路徑狀態更改為
optimal,因為存在多個到達卷的路徑。

磁碟設備現在同樣可供內部伺服器磁碟使用。

格式化 LUN,如清單 3 所示。

清單 3. 格式化 LUN 格式
root@solaris:~# format
Searching for disks...done

: configured with capacity of 63.93GB

AVAILABLE DISK SELECTIONS:
[...]

Specify disk (enter its number): 4
selecting
[disk formatted]
Disk not labeled. Label it now? y

FORMAT MENU:
disk - select a disk
type - select (define) a disk type
partition - select (define) a partition table
current - describe the current disk
format - format and analyze the disk
repair - repair a defective sector
label - write label to the disk
analyze - surface analysis
defect - defect list management
backup - search for backup labels
verify - read and display labels
save - save new disk/partition definitions
inquiry - show vendor, proct and revision
volname - set 8-character volume name
!<cmd> - execute <cmd>, then return
quit
format> q

在准備好的 LUN 上構建 Oracle Solaris ZFS 文件系統,為此創建一個新的 ZFS 池、將此設備添加到 ZFS 池中,並創建 ZFS
文件系統,如清單 4 的示例所示。

清單 4. 構建 Oracle Solaris ZFS 文件系統
root@solaris:~# zfs createzpool create docarchive1 \

root@solaris:~# zfs list

[...]
root@solaris:~# zfs create docarchive1/index
root@solaris:~# zfs create docarchive1/data
root@solaris:~# zfs create docarchive1/logs
root@solaris:~# zfs list

[...]

df(1) 命令的最後兩行輸出表明,現在大約有 64 GB 新空間可供使用。轉載僅供參考,版權屬於原作者。祝你愉快,滿意請採納哦

2. 如何在ZFS中實現RAID結構

RAID是「Rendant Array of Independent Disk」的縮寫,中文意思是獨立冗餘磁碟陣列。冗餘磁碟陣列技術誕生於1987年,由美國加州大學伯克利分校提出。 RAID技術在存儲領域的有著非常重要的作用,滿足了不同的需求。RAID按照實現原理的不同分為不同的級別,不同的級別之間工作模式是有區別的。整個的 RAID結構是一些磁碟結構,通過對磁碟進行組合達到提高效率,減少錯誤的目的,不要因為這么多名詞而被嚇壞了,它們的原理實際上十分簡單。下面我就給大家簡單介紹一下在ZFS中可以實現的三種RAID技術:RAID 0、RAID 1和RAID Z(RAID 5的改進)。 RAID 0:無差錯控制的帶區組 要實現RAID0必須要有兩個以上硬碟驅動器,RAID0實現了帶區組,數據並不是保存在一個硬碟上,而是分成數據塊保存在不同驅動器上。RAID0分為串聯卷和並兩卷兩種。 串聯卷寫數據是按照順序寫進不同的可用分片,當第一個分片寫滿時才寫第二個分片,這種存儲方式只是為我們提供了一種方便的管理結構,便於我們將多個硬碟組合起來,卻沒有實現更好的性能。 並聯卷在寫數據時,是將數據平均分布到各個分片上。因為將數據分布在不同驅動器上,所以數據吞吐率大大提高,驅動器的負載也比較平衡。如果剛好所需要的數據在不同的驅動器上效率最好。它不需要計算校驗碼,實現容易。它的缺點是它沒有數據差錯控制,如果一個驅動器中的數據發生錯誤,即使其它盤上的數據正確也無濟於事了。不應該將它用於對數據穩定性要求高的場合。如果用戶進行圖象(包括動畫)編輯和其它要求傳輸比較大的場合使用RAID0比較合適。同時,RAID0可以提高數據傳輸速率,比如所需讀取的文件分布在兩個硬碟上,這兩個硬碟可以同時讀取。那麼原來讀取同樣文件的時間被縮短為1/2。在所有的級別中,RAID 0的速度是最快的。但是RAID 0沒有冗餘功能的,如果一個磁碟(物理)損壞,則所有的數據都無法使用。 在ZFS文件系統里,我們可以很容易的實現這種結構,在我們組建存儲池的過程中,我們就可以建立我們需要的RAID結構的存儲池,而在默認情況下,ZFS建立的就是RAID0結構的存儲池。 例如:命令 Tonsen#zpool create mypool c0d0 c0d1 就是將c0d0和c0d1組成了一個RAID0結構的存儲池,以後向這個池中增加數據時,它的數據分布就是採用平均分布的形式。 RAID 1:鏡象結構 對於使用這種RAID1結構的設備來說,RAID控制器必須能夠同時對兩個盤進行讀操作和對兩個鏡象盤進行寫操作,所以必須有兩個驅動器。因為是鏡象結構在一組盤出現問題時,可以使用鏡象,提高系統的容錯能力。它比較容易設計和實現。每讀一次盤只能讀出一塊數據,也就是說數據塊傳送速率與單獨的盤的讀取速率相同。因為RAID1的校驗十分完備,因此對系統的處理能力有很大的影響,通常的RAID功能由軟體實現,而這樣的實現方法在伺服器負載比較重的時候會大大影響伺服器效率。當您的系統需要極高的可靠性時,如進行數據統計,那麼使用RAID1比較合適。而且RAID1技術支持「熱替換」,即不斷電的情況下對故障磁碟進行更換,更換完畢只要從鏡像盤上恢復數據即可。當主硬碟損壞時,鏡像硬碟就可以代替主硬碟工作。鏡像硬碟相當於一個備份盤,可想而知,這種硬碟模式的安全性是非常高的,RAID 1的數據安全性在所有的RAID級別上來說是最好的。但是其磁碟的利用率卻只有50%,是所有RAID級別中最低的。 在ZFS文件系統里,我們可以通過在命令中增加mirror參數來構建鏡像結構的存儲池。 例如:命令 Tonsen#zpool create mypool mirror c0d0 c0d1 就是將c0d0和c0d1組成了一個RAID1結構的鏡像存儲池,以後向這個池中增加數據時,它的數據分布是會寫到它所有的鏡像盤上。 使用命令 Tonsen#zpool status 我們可以很清楚的看到鏡像結構,如下: pool: mypool state: ONLINE scrub: none requested config: NAME STATE READ WRITE CKSUM mypool ONLINE 0 0 0 mirror ONLINE 0 0 0 c0d0 ONLINE 0 0 0 c0d1 ONLINE 0 0 0 errors: No known data errors 我們甚至可以在ZFS中將RAID0和RAID1組合起來,形成一個綜合的RAID結構。 例如:命令 Tonsen#zpool create mypool mirror c0d0 c0d1 mirror c1d0 c1d1 就是將c0d0、c0d1和c1d0、c1d1分別組成兩個鏡像,然後這兩個鏡像又構成一個RAID0的結構。這種結構既提高了可靠性也提高了性能。 使用命令 Tonsen#zpool status 查看一下它的結構,如下: pool: mypool state: ONLINE scrub: none requested config: NAME STATE READ WRITE CKSUM mypool ONLINE 0 0 0 mirror ONLINE 0 0 0 c0d0 ONLINE 0 0 0 c0d1 ONLINE 0 0 0 mirror ONLINE 0 0 0 c1d0 ONLINE 0 0 0 c1d1 ONLINE 0 0 0 errors: No known data errors RAID 5:分布式奇偶校驗的獨立磁碟結構 它的奇偶校驗碼存在於所有磁碟上,其中的p0代表第0帶區的奇偶校驗值,其它的意思也相同。RAID5的讀出效率很高,寫入效率一般,塊式的集體訪問效率不錯。因為奇偶校驗碼在不同的磁碟上,所以提高了可靠性,允許單個磁碟出錯。RAID 5也是以數據的校驗位來保證數據的安全,但它不是以單獨硬碟來存放數據的校驗位,而是將數據段的校驗位交互存放於各個硬碟上。這樣,任何一個硬碟損壞,都可以根據其它硬碟上的校驗位來重建損壞的數據。硬碟的利用率為n-1。但是它對數據傳輸的並行性解決不好,而且控制器的設計也相當困難。而對於RAID 5來說,大部分數據傳輸只對一塊磁碟操作,可進行並行操作。在RAID 5中有「寫損失」,即每一次寫操作,將產生四個實際的讀/寫操作,其中兩次讀舊的數據及奇偶信息,兩次寫新的數據及奇偶信息。 RAID Z:是RAID5的改進版本,是solaris10里ZFS特有的一種Raid級別。 容錯能力與RAID 5相同,但是對於RAID 5的寫入漏洞問題提供了軟體解決方案,使用動態的條帶化。傳統的RAID 5都存在著「寫漏洞」,就是說如果RAID 5的stripe在正寫數據時,如果這時候電源中斷,那麼奇偶校驗數據將跟該部分數據不同步,因此前邊的寫無效;RAID-Z用了「variable- width RAID stripes」技術,因此所有的寫都是full-stripe writes。之所以能實現這種技術,就是因為ZFS集成了文件系統和設備管理,使得文件系統的元數據有足夠的信息來控制「variable-width RAID stripes」。理論上說,創建RAID-Z需要至少三塊磁碟,這跟RAID 5差不多。 例如:Tonsen#zpool create mypool raidz c0d0 c0d1 c1d0 c1d1 就是創建了一個由c0d0、c0d1、c1d0和c1d1四塊硬碟組成的raidz結構。 使用命令 Tonsen#zpool status 來查看它的結構如下: pool: mypool state: ONLINE scrub: none requested config: NAME STATE READ WRITE CKSUM mypool ONLINE 0 0 0 raidz1 ONLINE 0 0 0 c0d0 ONLINE 0 0 0 c0d1 ONLINE 0 0 0 c1d0 ONLINE 0 0 0 c1d1 ONLINE 0 0 0 errors: No known data errors 在ZFS文件系統里,我們可以通過很簡單的方式,就能組織我們需要的各種RAID結構的存儲單元,這為我們提供了異常強大的存儲管理能力

3. 戴爾vmax存儲san環境怎麼搭建

部署zfs系統。
把SSD定義為zfs的緩存磁碟,然後把HBA卡設置為target模式,使用targetcli在zfs下的一個文件塊推送至vmware或者其他客戶端。先安裝ZFS文件系統支持,安裝targetcli,設置HBA卡為targetmode,重啟,檢查targetcli是否正確載入qla2xxx模塊,下面有qla2xxx輸出即為正常。創建backstore,推LUN,設置接入許可權,接入端也是兩個HBA卡,所以每個target設置兩個ACL。

4. 什麼是 ZFS

ZFS 文件系統是一種革新性的新文件系統,可從根本上改變文件系統的管理方式,並具有目前面市的其他任何文件系統所沒有的功能和優點。ZFS 強健可靠、可伸縮、易於管理。
ZFS 池存儲ZFS 使用存儲池的概念來管理物理存儲。以前,文件系統是在單個物理設備的基礎上構造的。為了利用多個設備和提供數據冗餘性,引入了卷管理器的概念來提供單個設備的表示,以便無需修改文件系統即可利用多個設備。此設計增加了更多復雜性,並最終阻礙了特定文件系統的繼續發展,因為這類文件系統無法控制數據在虛擬卷上的物理放置。
ZFS 可完全避免使用卷管理。ZFS 將設備聚集到存儲池中,而不是強制要求創建虛擬卷。存儲池說明了存儲的物理特徵(設備布局、數據冗餘等),並充當可以從其創建文件系統的任意數據存儲庫。文件系統不再僅限於單個設備,從而可與池中的所有文件系統共享磁碟空間。您不再需要預先確定文件系統的大小,因為文件系統會在分配給存儲池的磁碟空間內自動增長。添加新存儲器後,無需執行其他操作,池中的所有文件系統即可立即使用所增加的磁碟空間。在許多方面,存儲池與虛擬內存系統相似:將一個內存 DIMM 加入系統時,操作系統並不強迫您運行命令來配置內存並將其指定給個別進程。系統中的所有進程都會自動使用所增加的內存。
事務性語義ZFS 是事務性文件系統,這意味著文件系統狀態在磁碟上始終是一致的。傳統文件系統可就地覆寫數據,這意味著如果系統斷電(例如,在分配數據塊到將其鏈接到目錄中的時間段內斷電),則會使文件系統處於不一致狀態。以前,此問題是通過使用fsck命令解決的。此命令負責檢查並驗證文件系統狀態,並嘗試在操作過程中修復任何不一致性。這種文件系統不一致問題曾給管理員造成巨大困擾,
fsck命令並不保證能夠解決所有可能的問題。最近,文件系統引入了日誌記錄的概念。日誌記錄過程在單獨的日誌中記錄操作,在系統發生崩潰時,可以安全地重放該日誌。由於數據需要寫入兩次,因此該過程會引入不必要的開銷,而且通常會導致一組新問題,例如在無法正確地重放日誌時。
對於事務性文件系統,數據是使用寫復制語義管理的。數據永遠不會被覆寫,並且任何操作序列會全部被提交或全部被忽略。因此,文件系統絕對不會因意外斷電或系統崩潰而被損壞。盡管最近寫入的數據片段可能丟失,但是文件系統本身將始終是一致的。此外,只有在寫入同步數據(使用O_DSYNC標志寫入)後才返回,因此同步數據決不會丟失。
校驗和與自我修復數據
對於 ZFS,所有數據和元數據都通過用戶可選擇的校驗和演算法進行驗證。提供校驗和驗證的傳統文件系統出於卷管理層和傳統文件系統設計的必要,會逐塊執行此操作。在傳統設計中,某些故障可能導致數據不正確但沒有校驗和錯誤,如向錯誤位置寫入完整的塊等。ZFS 校驗和的存儲方式可確保檢測到這些故障並可以正常地從其中進行恢復。所有校驗和驗證與數據恢復都是在文件系統層 執行的,並且對應用程序是透明的。
此外,ZFS 還會提供自我修復數據。ZFS 支持存儲池具有各種級別的數據冗餘性。檢測到壞的數據塊時,ZFS 會從另一個冗餘副本中提取正確的數據,而且會用正確的數據替換錯誤的數據。
獨一無二的可伸縮性
ZFS 文件系統的一個關鍵設計要素是可伸縮性。該文件系統本身是 128 位的,所允許的存儲空間是 256 quadrillion zettabyte (256x1015 ZB)。所有元數據都是動態分配的,因此在首次創建時無需預先分配 inode,否則就會限制文件系統的可伸縮性。所有演算法在編寫時都考慮到了可伸縮性。目錄最多可以包含 248(256 萬億)項,並且對於文件系統數或文件系統中可以包含的文件數不存在限制。
ZFS 快照快照是文件系統或卷的只讀副本。可以快速而輕松地創建快照。最初,快照不會佔用池中的任何附加磁碟空間。
活動數據集中的數據更改時,快照通過繼續引用舊數據來佔用磁碟空間。因此,快照可防止將數據釋放回池中。
簡化的管理最重要的是,ZFS 提供了一種極度簡化的管理模型。通過使用分層文件系統布局、屬性繼承以及自動管理掛載點和 NFS 共享語義,ZFS 可輕松創建和管理文件系統,而無需使用多個命令或編輯配置文件。可以輕松設置配額或預留空間,啟用或禁用壓縮,或者通過單個命令管理許多文件系統的掛載點。您就可以檢查或替換設備,而無需學習另外的一套卷管理命令。您可以發送和接收文件系統快照流
ZFS 通過分層結構管理文件系統,該分層結構允許對屬性(如配額、預留空間、壓縮和掛載點)進行這一簡化管理。在此模型中,文件系統是中央控制點。文件系統本身的開銷非常小(相當於創建一個新目錄),因此鼓勵您為每個用戶、項目、工作區等創建一個文件系統。通過此設計,可定義細分的管理點。

5. 如何在Centos7上安裝和使用ZFS

如何在Centos7上安裝和使用ZFS

導讀
ZFS文件系統的英文名稱為ZettabyteFileSystem,也叫動態文件系統(DynamicFileSystem),是第一個128位文件系統。最初是由Sun公司為Solaris10操作系統開發的文件系統。作為OpenSolaris開源計劃的一部分,ZFS於2005年11月發布,被Sun稱為是終極文件系統,經歷了10年的活躍開發,而最新的開發將全面開放,並重新命名為OpenZFS。

ZFS優勢
ZFS是一種先進的、高度可擴展的文件系統,最初是由Sun Microsystems開發的,現在OpenZFS是項目的一部分。有這么多文件系統可用在Linux上,那自然要問ZFS有什麼特別之處。不同於其它文件系統,它不僅是一個文件系統邏輯卷管理器。ZFS使其受歡迎的特性是:

1. 數據完整性——數據一致性和完整性通過即寫即拷和校驗技術保證。
2. 存儲空間池——可用存儲驅動器一起放入稱為zpool的單個池。
3. 軟體RAID ——像發出一個命令一樣,建立一個raidz數組。
4. 內置的卷管理器——ZFS充當卷管理器。
5. Snapshots、克隆、壓縮——這些都是一些ZFS提供的高級功能。

術語
在我們繼續之前,讓我們了解一些ZFS的常用的術語。
Pool:存儲驅動器的邏輯分組,它是ZFS的基本構建塊,從這里將存儲空間分配給數據集。
Datasets:ZFS文件系統的組件即文件系統、克隆、快照和卷被稱為數據集。
Mirror:一個虛擬設備存儲相同的兩個或兩個以上的磁碟上的數據副本,在一個磁碟失敗的情況下,相同的數據是可以用其他磁碟上的鏡子。
Resilvering:在恢復設備時將數據從一個磁碟復制到另一個磁碟的過程。
Scrub:擦除用於一致性檢驗在ZFS像在其他文件系統如何使用fsck。

安裝ZFS
為了對CentOS安裝ZFS,我們需要先安裝支持包EPEL倉庫,然後在ZFS存儲庫上安裝所需的ZFS包。

yum localinstall --nogpgcheck
yum localinstall --nogpgcheck
現在安裝內核開發和zfs包,內核開發的軟體包是需要ZFS建立模塊和插入到內核中。

yum install kernel-devel zfs
驗證zfs模塊插入到內核使用的lsmod命令,如果沒有,使用『modprobe命令手動插入它。

[root@li1467-130 ~]# lsmod |grep zfs
[root@li1467-130 ~]# modprobe zfs
[root@li1467-130 ~]# lsmod |grep zfs
zfs 2790271 0
zunicode 331170 1 zfs
zavl 15236 1 zfs
zcommon 55411 1 zfs
znvpair 89086 2 zfs,zcommon
spl 92029 3 zfs,zcommon,znvpair
讓我們檢查是否我們可以使用zfs的命令:

[root@li1467-130 ~]# zfs list
no datasets available

6. 在windows上怎麼安裝zfs文件系統

ZFS是Sun的Solaris操作系統,現在已經開放,FreeBSD和Mac操作系統支持的文件系統所支持。 Zettabyte文件系統,也被稱為動態文件系統動態文件系統ZFS,是第一個128位文件系統,無限容量,自我優化的數據永遠,無限容量管理簡單,超過16十億十億次,32/64文件系統應用程序,ZFS像一個標準的POSIX文件系統,而不需要進行移植,ZFS存儲池模型,該模型的系統管理員,徹底消除了卷管理的概念。但不管是什麼文件系統可以提供無限的存儲空間,所以大容量硬碟的解決方案。

7. 如何在Solaris下進行SAN存儲配置

Oracle Solaris 10 和 Oracle Solaris 11 自帶了一個光纖通道發起方系統,您可以對它進行配置以便將 Sun ZFS
存儲設備提供的光纖通道 (FC) LUN 集成到 Oracle Solaris 環境中。本文介紹如何配置 Oracle Solaris 光纖通道系統以及如何配置
Sun ZFS 存儲設備來配置供 Oracle Solaris 伺服器訪問的 FC LUN。可以使用瀏覽器用戶界面 (BUI) 完成這些配置。

本文做出以下假設:

已知 Sun ZFS 存儲設備的 root 帳戶口令。

已知 Sun ZFS 存儲設備的 IP 地址或主機名。

已配置好 Sun ZFS 存儲設備使用的網路。

Sun ZFS 存儲設備已配置有具有足夠可用空閑空間的存儲資源池。

已知 Oracle Solaris 伺服器的 root 帳戶口令。

Sun ZFS 存儲設備已經連接到光纖通道交換機。

已在 FC 交換機上配置了相應的區域,允許 Oracle Solaris 主機訪問 Sun ZFS 存儲設備。

配置 Oracle Solaris FC 系統

為了讓 Sun ZFS 存儲設備和 Oracle Solaris 伺服器彼此標識,每個設備的 FC 全球編號 (WWN)
必須在另一個設備中注冊。您必須確定在 FC 交換機上實現的某些形式 FC 區域的 WWN。

主機的 FC WWN 用於向 Sun ZFS 存儲設備標識主機,並且需要它來完成本文中的配置過程。

WWN 來自在 Oracle Solaris 主機和 Sun ZFS 存儲設備中安裝的 FC 主機匯流排適配器 (HBA)。

為了配置 Oracle Solaris FC 系統,您需要知道 Sun ZFS 存儲設備的 WWN。在傳統的雙結構存儲區域網路 (SAN) 中,Sun
ZFS 存儲設備至少有一個 FC 埠連接到每個結構。因此,您必須至少確定兩個 FC WWN。

標識 Sun ZFS 存儲設備 FC WWN

首先,您需要建立一個到 Sun ZFS 存儲設備的管理會話。

在 Web 瀏覽器的地址欄中輸入一個包含 Sun ZFS 存儲設備的 IP 地址或主機名的地址,如以下 URL 所示:

https://<ip-address or host name>:215

將顯示登錄對話框。

輸入用戶名和口令,然後單擊 LOGIN。

成功登錄到 BUI 之後,您可以通過 Configuration 選項卡標識 WWN。

單擊 Configuration > SAN > Fibre Channel
Ports。

將顯示安裝在 Sun ZFS 存儲設備中的 FC 埠。由於每個 HBA 通道只有一個已發現的埠,因此這必須是 HBA 通道本身。

在前面的示例中,埠 1 具有 WWN 21:00:00:e0:8b:92:a1:cf,埠 2 具有 WWN
21:01:00:e0:8b:b2:a1:cf。

在每個 FC 埠框右側的列表框中,應該將 FC 通道埠設置為 Target。如果情況並非如此,則 FC
埠可能用於其他用途。在調查原因之前,請不要更改設置。(一種可能的原因是可能用於了 NDMP 備份。)

標識 Oracle Solaris 主機 HBA WWN

如果 Oracle Solaris 主機已經通過相應的電纜連接到 FC 交換機,則使用以下命令來標識 WWN。

要獲得主機的 WWN,輸入以下命令:

root@solaris:~# cfgadm -al -o show_FCP_dev
root@solaris:~#

在該輸出中,您需要的控制器號為 c8 和 c9。當埠類型為
fc-fabric 時,您還可以看到兩個埠都連接到一台 FC 交換機。接下來,查詢這些控制器來確定發現的 WWN。

如果 HBA 埠未用於訪問任何其他連接 FC 的設備,則可使用以下命令來確定 WWN。

root@solaris:~# prtconf -vp | grep port-wwn
port-wwn: 210000e0.8b89bf8e
port-wwn: 210100e0.8ba9bf8e
root@solaris:~#

如果正在訪問 FC 設備,則以下命令將顯示 FC HBA WWN。
root@solaris:~# luxadm -e mp_map /dev/cfg/c8

root@solaris:~#

顯示為類型 0x1f 的最後一個條目 (Unknown type, Host Bus Adapter)
在埠 WWN 條目下提供了相應的 WWN。重復此命令,使用在第 1 步中標識的其他控制器替換
/dev/cfg/c8。

從輸出中,您可以看到 c8 具有 WWN
21:00:00:00:e0:8b:89:bf:8e,c9 具有 WWN
21:01:00:e0:8b:a9:bf:8e。

然後,可以使用 Sun ZFS 存儲設備 HBA 和 Oracle Solaris 主機 HBA WWN 來配置任何 FC 交換機區域。

完成此操作之後,您可以運行以下命令來驗證正確的區域:
root@solaris:~# cfgadm -al -o show_FCP_dev c8 c9

root@solaris:~#

現在,您可以看到可由 Oracle Solaris 主機訪問的 Sun ZFS 存儲設備提供的 WWN。

使用瀏覽器用戶界面配置 Sun ZFS 存儲設備

作為一個統一的存儲平台,Sun ZFS 存儲設備既支持通過 iSCSI 協議訪問數據塊協議
LUN,又支持通過光纖通道協議進行同樣的訪問。這一節講述如何使用 Sun ZFS 存儲設備 BUI 來配置 Sun ZFS 存儲設備,使其能夠識別 Oracle
Solaris 主機並向該主機提供 FC LUN。

定義 FC 目標組

在 Sun ZFS 存儲設備上創建目標組,以便定義 Oracle Solaris 伺服器可通過哪個埠和協議訪問提供給它的 LUN。對於此示例,創建 FC
目標組。

執行以下步驟在 Sun ZFS 存儲設備上定義 FC 目標組:

單擊 Configuration > SAN 顯示 Storage Area Network (SAN)
屏幕

單擊右側的 Targets 選項卡,然後選擇左側面板頂部的 Fibre Channel
Ports

將滑鼠放置在 Fibre Channel Ports 框中,將在最左側出現一個 Move 圖標()

單擊 Move 圖標並將此框拖到 Fibre Channel Target
Groups 框,如圖 4 所示。

拖動橙色框中的條目來創建新的目標組。將創建組,並將其自動命名為 targets-n,其中
n 是一個整數。

將游標移到新目標組條目上。在 Fibre Channel Target Groups 框右側會出現兩個圖標

要重命名新的目標組 targets-0,單擊 Edit 圖標()顯示對話框

在 Name 域中,將默認名稱替換為新 FC 目標組的首選名稱,單擊
OK。本例中用名稱 FC-PortGroup 替換
targets-0。在此窗口中,您還可以通過單擊所選 WWN 左側的框來添加第二個 FC 目標埠。第二個埠標識為 PCIe 1:Port 2。

單擊 OK 保存更改。

單擊 APPLY。 Fibre Channel Target Groups
面板中顯示了如上的更改。

定義 FC 發起方

定義 FC 發起方以便允許從一台或多台伺服器訪問特定卷。應該配置對卷的訪問許可權,以便允許最少數量的 FC
發起方訪問特定卷。如果多個主機可以同時寫入一個指定卷並且使用非共享文件系統,則各主機上的文件系統緩存可能出現不一致,最終可能導致磁碟上的映像損壞。一般對於一個卷,只會賦予一個發起方對該卷的訪問許可權,除非使用的是一種特殊的集群文件系統。

FC 發起方用於從 Sun ZFS 存儲設備的角度出發來定義「主機」。在傳統的雙結構 SAN 中,主機將至少由兩個 FC 發起方來定義。FC
發起方定義包含主機 WWN。為了向 Sun ZFS 存儲設備標識 Oracle Solaris 伺服器,必須在存儲設備中注冊 Oracle Solaris FC
發起方 WWN,為此要執行以下步驟。

單擊 Configuration > SAN 顯示 Storage Area Network (SAN)
屏幕

單擊右側的 Initiators 選項卡,然後選擇左側面板頂部的 Fibre Channel
Initiators

單擊 Fibre Channel Initiators 左側的 圖標顯示 New Fibre Channel Initiator 對話框

如果已在 FC 交換機上配置了區域,則應顯示 Oracle Solaris 主機的 WWN(假設沒有為它們指定別名)。

在對話框底部單擊一個 WWN(如果顯示)預填充全球名稱,或者在 World Wide Name 框中鍵入相應的
WWN。

在 Alias 框中輸入一個更有意義的符號名稱。

單擊 OK。

對於其他涉及 Oracle Solaris 主機的 WWN,重復前面的步驟。

定義 FC 發起方組

將一些相關 FC 發起方組成邏輯組,這樣可以對多個 FC 發起方執行同一個命令,例如,可以使用一個命令對一個組中的所有 FC 發起方分配 LUN
訪問許可權。對於下面的示例,FC 發起方組將包含兩個發起方。注意,在集群中,多個伺服器被視作一個邏輯實體,因此發起方組可以包含更多發起方。

執行以下步驟創建一個 FC 發起方組:

選擇 Configuration > SAN 顯示 Storage Area Network (SAN)
屏幕。

選擇右側的 Initiators 選項卡,然後單擊左側面板頂部的 Fibre Channel
Initiators。

將游標放置在上一節中創建的一個 FC 發起方條目上。此時,在該條目左側會出現一個 Move 圖標()

單擊 Move 圖標並將其拖到右側的 Fibre Channel Initiator
Groups 面板中。此時,在 Fibre Channel Initiators Groups 面板底部出現了一個新的條目(黃色亮顯)

將游標移到新的條目框上,然後釋放滑鼠鍵。此時會創建一個新的 FC 發起方組,其組名稱為
initiators-n,其中 n 是一個整數,如圖 13
所示。

將游標移到新發起方組條目上。在目標發起方組框右側會出現幾個圖標

單擊 Edit 圖標()顯示對話框

在 Name 域中,將新發起方組的默認名稱替換為選定名稱,單擊 OK。本例使用
sol-server 作為該發起方組名稱。

在此對話框中,您可以通過單擊 WWN 左側的復選框向組中添加其他 FC 發起方。

在 SAN 配置屏幕中單擊 APPLY 確認所有修改,如圖 15 所示。

定義 Sun ZFS 存儲設備項目

為了對相關卷進行分組,您可以在 Sun ZFS 存儲設備中定義一個項目。通過使用項目,可以繼承項目所提供文件系統和 LUN
的屬性。還可以應用限額和保留。

執行以下步驟創建一個項目:

選擇 Shares > Projects 顯示 Projects 屏幕

單擊左側面板頂部的 Projects 左側的 圖標顯示
Create Project 對話框

要創建一個新項目,輸入項目名稱,單擊 APPLY。在左側面板的 Projects 列表中出現了一個新項目。

選擇這個新項目查看其所含組件

定義 Sun ZFS 存儲設備 LUN

接下來,您將從一個現有存儲資源池中創建一個 LUN,供 Oracle Solaris 伺服器訪問。在下面的示例中,將創建一個名為
DocArchive1 的精簡供應 64 GB LUN。

我們將使用定義 FC 目標組一節中創建的 FC 目標組
FC-PortGroup 來確保可以通過 FC 協議訪問該 LUN。將使用定義 FC
發起方組一節中定義的發起方組 sol-server 來確保只有在 sol-server
組中定義的伺服器才可以訪問該 LUN。(在本例中,該發起方組只包含一個伺服器。)

執行以下步驟創建一個 LUN:

選擇 Shares > Projects 顯示 Projects 屏幕。

在左側 Projects 面板中,選擇該項目。然後選擇右側面板頂部的 LUNs

單擊 LUNs 左側的 圖標顯示 Create LUN
對話框,如圖 20 所示。

輸入合適的值以配置該 LUN。對於本例,將 Name 設置為
DocArchive1,Volume size 設置為 64 G,並且選中
Thin provisioned 復選框。將 Target Group 設置為 FC 目標組
FC-PortGroup,將 Initiator Group 設置為
sol-server。將 Volume block size 設置為
32k,因為該卷將保存 Oracle Solaris ZFS 文件系統。

單擊 APPLY 創建該 LUN 使其供 Oracle Solaris 伺服器使用。

配置 LUN 以供 Oracle Solaris 伺服器使用

現在我們已准備好了 LUN,可以通過 FC 發起方組使用它了。接著必須執行以下步驟,配置 LUN 以供 Oracle Solaris 伺服器使用:

發起一個連接 Sun ZFS 存儲設備的 Oracle Solaris FC 會話,如清單 1 所示。由於在發起該 FC 會話前已創建了 LUN,該
LUN 將會自動啟用。

清單 1. 發起 Oracle Solaris FC 會話
root@solaris:~# cfgadm -al c8 c9
root@solaris:~# cfgadm -c configure c8::210100e08bb2a1cf
root@solaris:~# cfgadm -c configure c9::210000e08b92a1cf
root@solaris:~# cfgadm -al -o show_FCP_dev c8 c9

root@solaris:~#

驗證對 FC LUN 的訪問,如清單 2 所示。

清單 2. 驗證對 FC LUN 的訪問
root@solaris:~# devfsadm -c ssd
root@solaris:~# tail /var/adm/messages
[...]

[...]

在本例中,多路徑狀態最初顯示為 degraded,因為此時只識別了一個路徑。進一步,多路徑狀態更改為
optimal,因為存在多個到達卷的路徑。

磁碟設備現在同樣可供內部伺服器磁碟使用。

格式化 LUN,如清單 3 所示。

清單 3. 格式化 LUN 格式
root@solaris:~# format
Searching for disks...done

: configured with capacity of 63.93GB

AVAILABLE DISK SELECTIONS:
[...]

Specify disk (enter its number): 4
selecting
[disk formatted]
Disk not labeled. Label it now? y

FORMAT MENU:
disk - select a disk
type - select (define) a disk type
partition - select (define) a partition table
current - describe the current disk
format - format and analyze the disk
repair - repair a defective sector
label - write label to the disk
analyze - surface analysis
defect - defect list management
backup - search for backup labels
verify - read and display labels
save - save new disk/partition definitions
inquiry - show vendor, proct and revision
volname - set 8-character volume name
!<cmd> - execute <cmd>, then return
quit
format> q

在准備好的 LUN 上構建 Oracle Solaris ZFS 文件系統,為此創建一個新的 ZFS 池、將此設備添加到 ZFS 池中,並創建 ZFS
文件系統,如清單 4 的示例所示。

清單 4. 構建 Oracle Solaris ZFS 文件系統
root@solaris:~# zfs createzpool create docarchive1 \

root@solaris:~# zfs list

[...]
root@solaris:~# zfs create docarchive1/index
root@solaris:~# zfs create docarchive1/data
root@solaris:~# zfs create docarchive1/logs
root@solaris:~# zfs list

[...]

df(1) 命令的最後兩行輸出表明,現在大約有 64 GB 新空間可供使用。轉載僅供參考,版權屬於原作者。祝你愉快,滿意請採納哦
FC、IP網路的安全性
不論是光纖通道還是IP網路,主要的潛在威脅來自非授權訪問,特別是管理介面。例如,一旦獲得和存儲區域網路(SAN)相連接伺服器管理員的許可權,欺詐進入就可以得逞。這樣入侵者可以訪問任何一個和SAN連接的系統。因此,無論使用的是哪一種存儲網路,應該認識到應用充分的許可權控制、授權訪問、簽名認證的策略對防止出現安全漏洞是至關重要的。
測錯攻擊在IP網路中也比在光纖通道的SAN中易於實現。針對這類攻擊,一般是採用更為復雜的加密演算法。
盡管DoS似乎很少發生,但是這並不意味著不可能。然而如果要在光纖通道SAN上實現DoS攻擊,則不是一般的黑客軟體所能實現的,因為它往往需要更為專業的安全知識。
實現SAN數據安全方法
保證SAN數據安全的兩個基本安全機制是分區制zoning和邏輯單元值(Logical Unit Number)掩碼。
分區制是一種分區方法。通過該方法,一定的存儲資源只對於那些通過授權的用戶和部門是可見的。一個分區可以由多個伺服器、存儲設備、子系統、交換機、HBA和其它計算機組成。只有處於同一個分區的成員才可以互相通訊。
分區制往往在交換級來實現。根據實現方式,可以分為兩種模式,一為硬分區,一為軟分區。硬分區是指根據交換埠來制定分區策略。所有試圖通過未授權埠進行的通訊均是被禁止的。由於硬分區是在系統電路里來實現,並在系統路由表中執行,因此,較之軟分區,具有更好的安全性。
在光纖通道網路中,軟分區是基於廣域命名機制的(WWN)的。WWN是分配給網路中光纖設備的唯一識別碼。由於軟分區是通過軟體來保證在不同的分區中不會出現相同的WWNs,因此,軟分區技術比硬分區具有更好的靈活性,特別是在網路配置經常變化的應用中具有很好的可管理性。
有些交換機具有埠綁定功能,從而可以限制網路設備只能和通過預定義的交換埠進行通訊。利用這種技術,可以實現對存儲池的訪問限制,從而保護SAN免受非授權用戶的訪問。
另一種被廣泛採用的技術是LUN掩碼。一個LUN就是對目標設備(如磁帶和磁碟陣列)內邏輯單元的SCSI識別標志。在光纖通道領域,LUN是基於系統的WWN實現的。
LUN掩碼技術是將LUN分配給主機伺服器,這些伺服器只能看到分配給它們的LUN。如果有許多伺服器試圖訪問特定的設備,那麼網路管理者可以設定特定的LUN或LUN組可以訪問,從而可以拒絕其它伺服器的訪問,起到保護數據安全的目的。不僅在主機上,而且在HBA、存儲控制器、磁碟陣列、交換機上也可以實現各種形式的LUN屏蔽技術。
如果能夠將分區制和LUN技術與其它的安全機制共同運用到網路及其設備上的話,對網路安全數據安全將是非常有效的。
業界對存儲安全的做法
盡管目前對於在哪一級設備應用存儲安全控制是最優的還沒有一個明確的結論,例如,IPSec能夠在ASIC、VPN設備、家電和軟體上實現,但目前已有很多商家在他們的數據存儲產品中實現了加密和安全認證功能。
IPSec對於其它基於IP協議的安全問題,比如互聯網小型計算機介面(iSCSI)、IP上的光纖通道 (FCIP)和互聯網上的光線通道 (IFCP)等,也能起到一定的的作用。
通常使用的安全認證、授權訪問和加密機制包括輕量級的路徑訪問協議Lightweight Directory Access Protocol (LDAP)、遠程認證撥入用戶服務(RADIUS), 增強的終端訪問控制器訪問控制系統(TACACS+)、Kerberos、 Triple DES、高級加密標准(AES)、安全套接層 (SSL)和安全Shell(SSH)。
盡管SAN和NAS的安全機制有諸多相似之處,其實它們之間也是有區別的。很多NAS系統不僅支持SSH、SSL、Kerberos、RADIUS和LDAP安全機制,同時也支持訪問控制列表(ACL)以及多級許可。這裡面有一個很重要的因素是文件鎖定,有很多產品商家和系統通過不同的方式來實現這一技術。例如,微軟採用的為硬鎖定,而基於 Unix的系統採用的是相對較為鬆弛的建議級鎖定。由此可以看到,如果在Windows-Unix混合環境下,將會帶來一定的問題。
呼喚存儲安全標准化
SAN安全的實現基礎在交換機這一層。因此,存儲交換機的標准對網路產品製造商的技術提供方式的影響是至關重要的。
存儲安全標准化進程目前還處於萌芽階段。ANSI成立了T11光纖通信安全協議(FC-SP)工作組來設計存儲網路基礎設施安全標準的框架。目前已經提交了多個協議草案,包括FCSec協議,它實現了IPSec和光纖通訊的一體化;同時提交的還有針對光纖通訊的挑戰握手認證協議(CHAP)的一個版本;交換聯結認證協議(SLAP)使用了數字認證使得多個交換機能夠互相認證;光纖通信認證協議(FCAP)是SLAP的一個擴展協議。IEEE的存儲安全工作組正在准備制定一個有關將加密演算法和方法標准化的議案。
存儲網路工業協會(SNIA)於2002年建立了存儲安全工業論壇(SSIF),但是由於不同的產品商支持不同的協議,因此實現協議間的互操作性還有很長一段路要走。
關注存儲交換安全
大家都已經注意到了為了保證存儲安全,應該在存儲交換機和企業網路中的其它交換機上應用相同的安全預警機制,因此,對於存儲交換機也應有一些特殊的要求。
存儲交換安全最重要的一個方面是保護光纖管理介面,如果管理控制台沒有很好的安全措施,則一個非授權用戶有可能有意或無意地入侵系統或改變系統配置。有一種分布鎖管理器可以防止這類事情發生。用戶需要輸入ID和加密密碼才能夠訪問交換機光纖的管理界面。為了將SAN設備的管理埠通過安全認證機制保護起來,最好是將SAN配置管理工作集中化,並且對管理控制台和交換機之間的通訊進行加密。另外一個方面,在將交換機接入到光纖網路之前,也應該通過ACL和 PKI機制實現授權訪問和安全認證。因此,交換機間鏈接應當建立在嚴密的安全防範措施下。

8. ZFS文件系統快照和使用方法

ZFS文件系統的快照功能使用非常方便,創建快照幾乎秒創建,恢復也很快,且在創建時不會額外消耗存儲空間

zfs snapshot xxx@yyy
其中xxx是zfs磁碟名,yyy是快照名

zfs list -t snap

zfs destroy xxx@yyy

zfs rollback -r xxx@yyy

zfs get origin xxx

快照本身創建時並不佔用空間,但是隨著時間推移,快照會逐漸佔用空間。這是因為zfs默認會釋放一些文件佔用的舊數據空間,但是為了保留快照,必須要把這部分舊數據保留,直到快照刪除。因此不宜保留快照很長時間,應該定時進行清理。
如果時間長度固定,只是增加快照頻次,不會顯著增加快照佔用的空間,例如保留1天前的一個快照,與保留1天內每小時一個24個快照,佔用的空間差不太多。

9. 如何在Centos7上安裝和使用ZFS

安裝ZFS

為了對CentOS安裝ZFS,我們需要先安裝支持包EPEL倉庫,然後在ZFS存儲庫上安裝所需的ZFS包。
yum localinstall --nogpgcheck http://epel.mirror.net.in/epel/7/x86_64/e/epel-release-7-5.noarch.rpm
yum localinstall --nogpgcheck http://archive.zfsonlinux.org/epel/zfs-release.el7.noarch.rpm

現在安裝內核開發和zfs包,內核開發的軟體包是需要ZFS建立模塊和插入到內核中。
yum install kernel-devel zfs

驗證zfs模塊插入到內核使用的lsmod命令,如果沒有,使用『modprobe命令手動插入它。
[root@li1467-130 ~]# lsmod |grep zfs
[root@li1467-130 ~]# modprobe zfs
[root@li1467-130 ~]# lsmod |grep zfs
zfs 2790271 0
zunicode 331170 1 zfs
zavl 15236 1 zfs
zcommon 55411 1 zfs
znvpair 89086 2 zfs,zcommon
spl 92029 3 zfs,zcommon,znvpair

讓我們檢查是否我們可以使用zfs的命令:
[root@li1467-130 ~]# zfs list
no datasets available

10. os用什麼怎麼用呢

蘋果公司已經意識到用戶們的問題:面對大量存儲、管理成百上千的文件、對它們進行備份和恢復。對此,業內專家Carl Howe在英國泰晤士報上撰文稱,蘋果公司提供給用戶的解決辦法應該是使用Sun公司的ZFS的文件系統。
"對ZFS最簡單描述就是,它是一個對計算機怎樣存儲信息的完整反思。"Howe寫道。"它認為用戶們在使用計算機時能夠意識到磁碟已經是上個世紀的事情了,ZFS將你的所有磁碟看成一個存儲池,然後幫你管理這些磁碟;用戶僅僅處理文件就可以了。如果想要為存儲擴容,僅僅是向這個存儲池添加一個磁碟,然後ZFS就知道該怎麼做了。如果想要替換磁碟,告訴ZFS將磁碟從存儲池中移走,接下來它就會幫你清除磁碟了。你不需要知道有多少個副本存在你的系統里,你也不必知道他們具體在什麼位置。但是你知道,他們一直為你待在存儲池裡"。
據Howe說,這樣以來結果就是,蘋果公司能夠解決與TB級存儲有關的問題,可以對操作系統做快照然後恢復到之前的狀態,輕松實現對離線存儲備份的管理。
追溯到2000年,Howe在一篇報道中提醒廠家和銷售者"他們需要在銷售和落實存儲過程中作出根本改變,以防止他們的客戶淹沒在海量數據和令人頭疼的數據管理當中。"
前不久,Sun公司CEO Jonathan Schwartz表示,蘋果將使用Sun公司開發的ZFS文件系統作為Mac OS X 10.5 Leopard的默認文件系統,ZFS即Zettabyte File System,是由Sun公司為Solaris 10操作系統開發的文件系統,作為OpenSolaris開源計劃的一部分,可以免費使用。ZFS被Sun稱為是終極文件系統,它是一款128位文件系統,其支持的存儲容量比現有系統大16x10e16倍。可以說,在可預見的未來,ZFS幾乎沒有可能出現存儲空間不足的問題,可以說是無限容量。