當前位置:首頁 » 服務存儲 » linux怎麼畫存儲
擴展閱讀
webinf下怎麼引入js 2023-08-31 21:54:13
堡壘機怎麼打開web 2023-08-31 21:54:11

linux怎麼畫存儲

發布時間: 2022-08-23 19:06:19

A. linux存儲問題

1、安裝oracle軟體時,只裝軟體不要創建實例。
2、兩台linux系統你是想用熱備份還是冷備份?如果熱備份需要安裝HA軟體,如果只做冷備份就無所謂了。
3、使用linux的硬碟命令對陣列存儲進行分區。資料庫你是想使用裸設備還是文件系統,如果是裸設備需要創建裸設備,文件系統就要創建文件系統了。
4、將裸設備或文件系統連接到oracle下的./oradata目錄下
5、創建資料庫實例,指定安裝目錄及文件。

B. linux mysql 怎麼創建存儲過程

linux mysql 操作需要進入mysql命令行模式(這個模式下才可以增刪改查)
把寫好的創建存儲過程貼過來,執行就可以,跟你查詢表一樣的。

C. 如何硬碟安裝LINUX

從硬碟安裝Linux操作系統,首先要准備安裝包,Linux操作系統的安裝包通常是一個或多個ISO鏡像文件(一般通過網路下載就可以得到);其次,要通過某種手段啟動鏡像文件中的系統安裝程序;接下來,按照安裝程序的提示信息進行安裝就可以了。安裝過程中,需要指定Linux操作系統的安裝位置,這主要涉及硬碟分區的一些知識。

綜合來看,學習Linux操作系統的安裝,關鍵要學會兩點:第一、如何為Linux操作系統准備硬碟空間?第二、如何啟動ISO鏡像文件中的安裝程序。

硬碟分區

通常,在使用硬碟時,都要進行分區。如果把未分區的硬碟比做一張大白紙,那麼分區後的硬碟就相當於這張大白紙被畫上了幾個大方框。一塊硬碟被分成多個分區之後,各分區之間是相對獨立的,每個分區都可以有自己的文件格式,例如FAT16、FAT32、NTFS等等。

Linux 操作系統需要的硬碟分區

要安裝一個操作系統,一般來講都要為它准備專門的分區。專門,意味著不能與其他操作系統合用一個分區,也意味著不要與用戶自己的數據文件合用一個分區,前者是因為不同的操作系統可能需要不同格式的磁碟分區,後者則更多地出於用戶數據安全和系統維護方便的考慮。從最低配置角度講,Linux 操作系統需要一個EXT2或EXT3格式的硬碟分區作為根分區,大小在2~5G就可以。另外還需要一個SWAP 格式的交換分區,大小與內存有關:如果內存在256M以下,交換分區的大小應該是內存的兩倍;如果內存在256M以上,交換分區的大小等於內存大小即可。

Linux 硬碟分區管理工具

在安裝Linux 操作系統時,如果選擇了手工的分區方式,將啟動硬碟分區工具Disk Druid。這個程序是安裝程序自帶的。下面討論一下該軟體的使用。Linux下硬碟分區的標識在Linux 下用hda、hdb 等來標識不同的硬碟;用hda1、hda2、hda5、hda6 來標識不同的分區。其中,字母a 代表第一塊硬碟,b代表第二塊硬碟,依次類推。而數字1 代表一塊硬碟的第一個分區、2 代表第二個分區,依次類推。1到4 對應的是主分區(Primary Partition)或擴展分區(Extension Partition)。從5開始,對應的都是硬碟的邏輯分區(Logical Partition)。 一塊硬碟即使只有一個主分區,邏輯分區也是從5開始編號的,這點應特別注意。

系統上有一塊硬碟,名字為/dev/hda,它上面有一個NTFS 格式的主分區hda1 以及一個擴展分區hda2,擴展分區hda2又被分解為若干個邏輯分區,包括FAT格式的hda5和hda6,ext3 格式的hda8,swap 格式的hda7。

提示:兼容性問題。如果在Windows環境下看,hda1 將對應C,hda5 對應D,hda6則對應E,其他分區Windows 是不能識別的,因此看不到。

刪除分區

如果要刪除某個分區,先用滑鼠選中它,然後單擊「刪除」按鈕,就可以刪除一個分區了。刪除前,會有確認刪除的對話框,點「刪除」按鈕,選中的分區就被刪除了,變成空閑空間。

創建分區

要創建分區,硬碟上必須有空閑空間。用滑鼠選中空閑空間,然後單擊「新建」按鈕,就會出現添加分區的對話框。創建新分區時,需要先選擇文件系統類型,再根據文件系統類型的不同選擇或設置掛載點。Swap 類型的分區不需要設置掛裝點,其他類型分區都需要。Vfat類型分區就是FAT32分區,應設置掛裝點,而不是從掛載點列表中選擇掛載點1。最後設定分區的大小。設置完畢後點擊「確定」按鈕完成分區的創建工作。

使修改生效

上述修改操作後,並沒有對硬碟產生實質的影響,還是可以點擊「退出」按鈕來中止安裝程序從而放棄對硬碟的修改的。如果想使修改生效,點擊「下一步」按鈕就可以了。

注意:在修改分區並使之生效後,就不要中止安裝程序了,否則有可能導致硬碟分區表損壞。

Linux 下操作ISO 文件

在Linux下,以root 身份執行以下格式的命令就可以從/path 目錄中讀到xxx.iso這個文件中的內容。 實際使用時,應該根據實際情況修改/path和xxx.iso。

mount -t iso9660 -o loop xxx.iso /path

如果想製作ISO文件,把光碟放到光碟機中,然後執行如下的拷貝命令就可以把光碟上的內容拷貝到一個ISO文件中去。實際使用時,應該根據實際情況修改xxx.iso。

Windows下操作ISO文件
在windows 下,一般需要專用工具軟體才能操作ISO 文件。比如WinISO、WinImage、Dameon Tools等。

如果僅僅是想讀取ISO 文件中的內容,則可以用WinRAR。WinRAR3.0以上版本都支持iso9660文件格式。用WinRAR打開ISO文件,選中需要的內容,將其解壓出來就可以了。

Linux 操作系統安裝盤的ISO文件

iso安裝文件在Linux環境下掛裝到/mnt/iso值得注意的有兩個目錄。一個是images,在這個目錄里包含了一些1.44MB軟盤的鏡像文件,其中bootdisk.img可以用來製作安裝用啟動軟盤;另一個是dosutils,其中包含了一些DOS工具,比如rawrite.exe,用這個軟體可以把軟盤的鏡像文件寫到軟盤里。

Linux 啟動安裝法

這種方法需要製作一張Linux啟動盤。先把iso文件中images文件夾里的bootdisk.img讀出來單獨存儲到硬碟上。如果是在Linux 下,就把軟盤插入軟碟機,然後執行下面的命令把bootdisk.img寫入軟盤:

dd if=bootdisk.img of=/dev/fd0

如果是在DOS/WINDOWS 下,則還要把iso 文件中dosutils 文件夾里的rawrite.exe讀出來並與bootdisk.img保存在同一個目錄下。然後在DOS提示符下執行rawrite,按提示插入軟盤,將bootdisk.img寫入軟盤。做好Linux啟動盤後,用它引導啟動計算機。當提示詢問何種安裝方式時,選擇硬碟安裝方式(Hard Drive),並提供正確的iso 文件位置信息,就能啟動iso 文件中的安裝程序了。按照安裝程序的提示,就可以完成安裝了。

在安裝程序的引導下安裝參見「啟動虛擬主機安裝Linux」。

DOS啟動安裝法

此方法需要在純DOS 環境下進行,因此需要想辦法進入純DOS 環境。具體操作方法是,先把iso文件中dosutils目錄讀出來單獨存儲到硬碟上。注意要存到FAT16或FAT32格式的分區中,確保在DOS環境下能訪問該分區。然後啟動純DOS 環境,進入dosutils目錄,執行autoboot.bat。當提示詢問何種安裝方式時,選擇硬碟安裝方式(Hard Drive),並提供正確的iso 文件位置信息,就能啟動iso 文件中的安裝程序了。

按照安裝程序的提示,就可以完成安裝了。在安裝程序的引導下安裝參見「啟動虛擬主機安裝Linux」。

提示:進入DOS環境最簡便的方法就是用DOS啟動盤啟動計算機。

Windows下vmWare 啟動安裝法

這種方法需要windows環境並且需要專用軟體vmWare。用vmWare先創建一個虛擬機,並把Linux 操作系統的iso安裝文件作為該虛擬機的CDROM,然後從這個CD-ROM啟動虛擬機,就可以啟動Linux操作系統的安裝程序,進行安裝了。下面說說詳細步驟。此方法可用於安裝多種Linux

操作系統。

用vmWare創建虛擬主機

關於vmWare的用法,在網上也可以找到詳細的使用指導。為了方便讀者,本書整理收錄了其中的一篇。

運行vmWare,點擊其中的「New Virtual Machine」(新建虛擬機),進入新建虛擬機的向導。選擇其中的「Custom」(用戶自定義),點下一步繼續。在接下來的界面上選擇操作系統類型。選擇「Linux」,版本選擇「Other Linux」,點下一步繼續。接下來是要給虛擬機起個名字。我們不過是借用vmWare 安裝Linux,因此虛擬機的名字是無關緊要的,可以隨便起。虛擬機名字下面是存放虛擬機配置文件的位置信息,也不用管,用程序默認的就可以了,點下一步繼續。接下來是選擇虛擬機所用的硬碟。這是比較關鍵的地方。應該選擇「use a physical disk」,就是「使用物理硬碟」。這是藉助vmWare安裝LINUX的關鍵,決不能選錯,點下一步繼續。

程序會給出了一個警告,表示使用物理硬碟創建虛擬機會有風險,不要管它,點下OK繼續。接下來要選擇硬碟。選一個,並使用整個硬碟(entire disk),點下一步繼續。最後是指定存儲虛擬機配置信息的文件名,用默認的就可以。點擊「完成」,虛擬機就創建好了。

創建好虛擬主機後,還要修改虛擬機的設置。在虛擬主機管理界面上雙擊CD-ROM,在CD-ROM配置窗口(如圖A0-17)上修改它,使用iso鏡像文件(Use ISO image)作為CD-ROM,瀏覽(browse)找到我們准備好的Linux系統iso 文件。確認。這樣就把我們所需要的虛擬機准備好了。

這個虛擬機是專門用來安裝Linux操作系統的。安裝之後,這個虛擬機就沒什麼用了。

啟動虛擬機安裝Linux

點擊窗口中的綠色箭頭「start this machine」,就可以啟動虛擬機。在虛擬機啟動的時候,根據提示,按F2 鍵進入setup(就是類似於電腦的bios ),找到Boot,把啟動的順序改一改,按「+」「-」號,把CD-ROM(光碟)的位置放到第一個,保存退出,vmWare自動重新啟動虛擬機,這時就會從虛擬機的光碟引導了,實際上就是從Linux 操作系統的ISO安裝文件引導。這時就能看到相應Linux操作系統安裝的啟動畫面了。跟用光碟啟動時看到的安裝界面是一樣的。

下面挑幾個關鍵環節敘述一下安裝紅旗Linux4.1桌面版的過程。

注意,雖是藉助vmWare,但在操作時都跟直接從真實的安裝光碟啟動安裝時的操作一樣。可以把vmWare 的視圖切換為全屏視圖,使安裝過程看起來更真實。直接按回車鍵,就可以開始在圖形化界面的向導下開始安裝了。如果要以文本界面方式安裝,在boot:後輸入linuxtext,然後再按回車。接下來就會出現使用協議的界面。有興趣可以讀一下,選擇「接受」,然後點「下一步」。

接下來開始設置分區。首先會看到由用戶來選擇分區的方式的界面,選手工分區,然後點「下一步」。接下來就會出現選擇分區的界面。在這里列出了磁碟上所有的分區情況。由圖中可以看出,系統上有一塊硬碟,名字為/dev/hda,它上面有一個NTFS格式的主分區hda1以及一個擴展分區hda2,擴展分區hda2又被分解為若干個邏輯分區,包括FAT格式的hda5和hda6,ext3 格式的hda8,swap 格式的hda7。顯然hda7是為Linux系統准備好的交換分區,而hda8是為Linux

系統准備的分區。選中hda8,點「編輯」按鈕將出現該分區的編輯窗口。將該分區的掛裝點設為根(/),選定「將該分區格式化」,並且格式化類型選ext3。這里一定要選擇格式化以把選定分區原有的內容清理干凈。否則系統運行時有可能出現異常。編輯好分區之後,點「確定」,將出現一個格式化警告窗口,如果不想格式化,可以點取消,否則點「格式化」繼續。

下面該進行系統配置了,主要包括引導程序的設定、網路設備的設定、以及超級用戶帳號(root)密碼的設定。這些項都可以在系統運行時更改,因此可以一律使用默認值,連續點擊下一步就可以。默認情況下,引導程序被安裝在/dev/hda1,也就是主引導區(系統安裝好後,可以更改,參見「管理啟動方式」),安裝程序會自動解決雙啟動的問題(參見「Windows與Linux的雙重啟動」)。

點擊下一步就開始安裝了。安裝過程中將顯示安裝進度界面。安裝過程中,不再需要人工干預。當安裝完成後,將出現提示界面。如果是用光碟安裝,此時點擊「結束」將重新啟動計算機。我們這里使用的是虛擬計算機,因此點擊「結束」只會自動重啟虛擬計算機,這並不是我們想要的,因此,此時可以按+組合鍵,重新獲得滑鼠,然後關閉vmWare。

再次重新啟動計算機,將會出現grub的啟動界面,Linux系統已經實實在在地安裝到計算機上了,可以開始用了。

Linux系統安裝成功後,NTFS格式的主分區hda1將被自動掛裝為/mnt/WinC,FAT格式的hda5 被自動掛裝為/mnt/WinD,而hda6 被自動掛裝為/mnt/WinE。NTFS格式的分區雖能被Linux自動掛裝,但只能讀,不能寫。FAT格式的分區自動掛裝後是可讀可寫的,但並不能實施文件的許可權控制和管理,也不能進行磁碟空間的配額管理。要想充分發揮Linux的特性,應該考慮建立ext3格式的用戶數據存儲分區,並把用戶數據保存在ext3格式的分區中。

Windows 與Linux 的雙重啟動
由Linux 引導

計算機上已存在Windows 系統的情況下安裝Linux,並且選擇把引導數據寫到/hda1,那麼Linux就會自動把Windows 系統的啟動選項添加到啟動菜單中以供選擇。雙重啟動問題自動解決,不需贅述。

由Windows 引導

如果計算機上先安裝了Linux,後來又要安裝Windows。Windows將覆蓋主引導,但不會自動把Linux的啟動項加入到啟動菜單。這時必須手工解決Windows 和Linux的雙重啟動問題。

這種情況下,在安裝Windows之前,應該先把Linux引導扇區的信息提取出來備用。假設Linux引導程序在/dev/hda5,引導扇區的信息提取出來之後保存到FAT16或FAT32 分區/mnt/WinD/,文件名為bootsect.lnx,那麼相應的命令就是:dd if=/dev/hda5 of=/mnt/WinD/bootsect.lnx bs=512 count=1這是一條在Linux下才能執行的命令。這條命令生成的文件是解決雙啟動問題的關鍵。該文件的保存位置也很重要,應保存到FAT16 或FAT32 分區中。為防不測,可以把這個文件復制到軟盤或U盤上。

在安裝Windows之後,把bootsect.lnx復制到Windows系統的C盤根目錄下,然後編輯c:/boot.ini文件,增加下面的一行並保存。這樣,再重新啟動計算機後,就會在Windows啟動菜單中出現「Linux」的啟動項了,選擇它,即可進入Linux操作系統。

D. 如何自己在linux上搭建類似雲盤的分布式雲存儲

如何自己在linux上搭建類似雲盤的分布式雲存儲
對分布式的要求(彈性可伸縮、高可用)的需求,只是為了整合多個電腦的存儲資源,並且還想要一個漂亮的操作界面的話,最簡單的方法其實是用iscsi將其他電腦的存儲資源掛載到伺服器,然後使用seafile提供服務。
如果真正的有對分布式存儲的需求並且對界面沒什麼需求或者打算自己開發一個界面的話,swift,ceph,glusterFS都是可以考慮的可靠的技術。(需求簡單的話swift還是有很多界面的,也是可以考慮

E. 怎樣繪制Linux的目錄文件結構

有個tree命令。如果你的系統沒有,可以安裝它。例如Debin可以apt-get install tree。

F. linux vi下怎麼設置文件存儲路徑

不用設置存儲路徑,就像Win下的記事本差不多。舉個例子
vi abc 這個意思是在當前目錄下建一個abc的文件並用vi進行編輯,完成以後w完成q退出。
vi直接就是打開一個vi編輯器,想保存的話就直接:w abc意思就是保存在當前目錄,名字叫abc,如果我現在在/home/Dave/workspace/下面,我想保存到/home/DaveHan/test/下的話,那就打成全路徑就行了,vi其實很強大

G. 如何利用Linux和GFS打造集群存儲

負載均衡是一項困難的任務。我們經常需要通過NFS(網路文件系統)或其他機制來為數據提供中心地址,從而共享文件系統。雖然你的安全機制可能可以讓你免於Web伺服器節點的故障,但是你仍然需要通過中央存儲節點來共享數據。
通過GFS(全局文件系統)——Linux的一個免費集群文件系統——你可以創建一個不需要依賴其他伺服器的真正穩定的集群。在這篇文章中,我們將展示如何正確地設置GFS.
從概念上來說,一個集群文件系統可以允許多個操作系統載入同一個文件系統並可以在同一時間內向同一文件系統寫入數據。現在有許多集群文件系統,包括Sun的Lustre,Oracle的OCFS(Oracle集群文件系統),以及Linux的GFS.
有許多方法可以讓一個塊設備同時被多個伺服器所使用。你可以分區出一個對多個伺服器都可視的SAN(存儲區域網)LUN(邏輯單元號),設置好相應的iSCSI(互聯網小型計算機系統介面),或使用DRBD(分布式復制塊設備)在兩台伺服器之間復制一個分區。在使用DRBD的時候,你將需要在主/主節點中設置好DRBD以使用GFS.
GFS要求
運行GFS意味著你在運行一個集群。目前為止,運行GFS的最簡單的手段就是使用Red Hat Cluster Suite(RHCS:Red Hat集群套件)。這個套件在CentOS中就有。此外,還需要下面這些包:cman——集群管理器;lvm2-cluster——使LVM(邏輯卷管理器)可以支持集群的CLVM(集群邏輯卷管理器)包;kmod-gfs——GFS內核模塊;最後是gfs-utils.
集群管理器(cman)包含必要的工具,比如分布式鎖管理器。除非你希望花時間來確認各種不同的分發版本是如何採用cman的,否則我們強烈推薦使用CentOS或RHEL.同時,你還將獲得RH(Red Hat)所維護的各種最新版本的集群服務,此外你還可以獲得一個比較穩定的環境。
Fencing(阻絕)機制是絕對必要的。一些指導性文章建議將阻絕模式設定成"手動",因為阻絕設置有可能比較復雜。阻絕意味在集群中進行隔離,或馬上中斷某些危險節點的運作。如果集群無法阻絕某個發生故障的節點,那麼你的GFS將會出現很多問題,因此不要跳過這個步驟。
創建集群設置
你可以通過/etc/cluster/裡面的cluster.conf完成大部分的集群設置。我不建議使用各種集群管理應用程序來創建這個設置文件。即使是完全支持的RHEL應用程序,比如兩個月前發布的Conga,也經常會創建一些無效的cluster.conf文件,並且無法被必要的服務所解析。
下面是一個cluster.conf文件的例子。這個設置文件採用漂亮的XML格式,其內容非常直接。首先,我們對集群進行命名,我們將這個集群稱作"Web.1".
先跳過fence daemon選項,下一個部分就是集群主體的設置內容。你需要在clusternodes部分定義兩個節點。設置文件將同時存放在兩個節點上,這樣這兩個節點就都知道彼此的情況。
集群內的每個節點都聲明其阻絕方式的名稱是獨一無二的。在clusternames結束標簽下面,我們看到fencedevice部分定義了每個節點如何阻絕其他節點的方式。使用一個支持IPMI(智能平台管理介面)的伺服器是最好的方式,而且其設置也是相當簡單。你只要將IPMI的地點以及登錄方式告訴IP就可以了。為了避免在cluster.conf中留下密碼,你可以將它指向一個由根所擁有的腳本並由這個腳本來返回密碼。
我們還要指出的是我們在設置中定義了兩個節點。這是必須的,因為通常來說,除非大部分節點都同意自己的狀態,否則集群無法達到"Quorate"狀態。如果只有兩個節點的話,沒有肯定多數,因此這種方式讓集群只能在兩個節點下工作,而不能只在只有一個節點的情況下工作。這是設置基本集群的必要方式。
在每個節點上運行"service cman start",系統應該可以開始正常運作。你可以檢查"clustat"或"cman nodes"來確認節點是否良好運行。如果有哪個必要的部分沒有啟動,那麼集群將不會顯示"Quorate"狀態。
GFS設置
首先,我們需要設置CLVM,這樣我們才可以通過GFS使用LVM.激活CLVM只要在lvm.conf中設定"locking type=3"就可以了。
然後,就像平常一樣創建一個LVM卷組和卷,但是使用的是共享的塊設備。如果你使用的是DRBD,你將有可能使用/dev/drbd0.我創建了一個物理卷,然後創建一個名為vg01的卷組,然後創建一個名為web1的邏輯卷,這個卷在:/dev/vg01/web1.
最後,我們需要創建文件系統:
gfs_mkfs -t web1:mygfs -p lock_dlm -j 2 /dev/vg01/web1
-t中給定的名稱必須是集群的名稱,然後後面是你給這個文件系統所起的名字。只有web1集群的成員才可以載入這個文件系統。然後,設定分布式鎖管理器的鎖鑰類型,指明你需要兩份journal(因為這是一個雙節點集群)。如果你預計未來要增加更多的節點,那麼你需要在這時設定足夠高的journal數量。
總結
我們現在可以開始使用這個文件系統了。在兩個節點上啟動"clvmd"和"gfs"服務。現在你就可以通過"-t gfs"來將類型指定為GFS,從而載入文件系統。
在開始啟動之前,一定要設定好cman,clvmd和gfs服務。你最好能熟悉clustat和gfs_tool命令,因為在系統出現問題的時候,你可以用這些命令來查找問題所在。
不要指望GFS能很快。如果有一個節點在進行大量的寫入操作的話,那麼在訪問文件系統的時候出現停頓是很正常的。對於一個數據讀取操作比數據寫入操作多得多的Web集群來說,這倒不是什麼問題。如果出現明顯延遲,那麼首先要檢查一下所有組件的狀況,然後評估正在寫入的數據。防止延遲現象的最常見措施就是確保HTTP對話中的數據不是寫入GFS卷。

H. Linux下怎麼用QT怎麼畫一個CPU/內存使用率的圖

1. 在系統維護的過程中,隨時可能有需要查看 CPU 使用率,並根據相應信息分析系統狀況的需要。在 CentOS 中,可以通過 top 命令來查看 CPU 使用狀況。運行 top 命令後,CPU 使用狀態會以全屏的方式顯示,並且會處在對話的模式 -- 用基於 top 的命令,可以控制顯示方式等等。退出 top 的命令為 q (在 top 運行中敲 q 鍵一次)。
top命令是Linux下常用的性能分析工具,能夠實時顯示系統中各個進程的資源佔用狀況,類似於Windows的任務管理器
可以直接使用top命令後,查看%MEM的內容。可以選擇按進程查看或者按用戶查看,如想查看oracle用戶的進程內存使用情況的話可以使用如下的命令:
$ top -u oracle

2. 釋義:
PID:進程的ID
USER:進程所有者
PR:進程的優先順序別,越小越優先被執行
NInice:值
VIRT:進程佔用的虛擬內存
RES:進程佔用的物理內存
SHR:進程使用的共享內存
S:進程的狀態。S表示休眠,R表示正在運行,Z表示僵死狀態,N表示該進程優先值為負數
%CPU:進程佔用CPU的使用率
%MEM:進程使用的物理內存和總內存的百分比
TIME+:該進程啟動後佔用的總的CPU時間,即佔用CPU使用時間的累加值。
COMMAND:進程啟動命令名稱

3.操作實例:

在命令行中輸入 「top」

即可啟動 top

top 的全屏對話模式可分為3部分:系統信息欄、命令輸入欄、進程列表欄。

第一部分 -- 最上部的 系統信息欄 :

第一行(top):

「00:11:04」為系統當前時刻;

「3:35」為系統啟動後到現在的運作時間;

「2 users」為當前登錄到系統的用戶,更確切的說是登錄到用戶的終端數 -- 同一個用戶同一時間對系統多個終端的連接將被視為多個用戶連接到系統,這里的用戶數也將表現為終端的數目;

「load average」為當前系統負載的平均值,後面的三個值分別為1分鍾前、5分鍾前、15分鍾前進程的平均數,一般的可以認為這個數值超過 CPU 數目時,CPU 將比較吃力的負載當前系統所包含的進程;

第二行(Tasks):

「59 total」為當前系統進程總數;

「1 running」為當前運行中的進程數;

「58 sleeping」為當前處於等待狀態中的進程數;

「0 stoped」為被停止的系統進程數;

「0 zombie」為被復原的進程數;

第三行(Cpus):

分別表示了 CPU 當前的使用率;

第四行(Mem):

分別表示了內存總量、當前使用量、空閑內存量、以及緩沖使用中的內存量;

第五行(Swap):

表示類別同第四行(Mem),但此處反映著交換分區(Swap)的使用情況。通常,交換分區(Swap)被頻繁使用的情況,將被視作物理內存不足而造成的。

第二部分 -- 中間部分的內部命令提示欄:

top 運行中可以通過 top 的內部命令對進程的顯示方式進行控制。內部命令如下表:

s

- 改變畫面更新頻率

l - 關閉或開啟第一部分第一行 top 信息的表示

t - 關閉或開啟第一部分第二行 Tasks 和第三行 Cpus 信息的表示

m - 關閉或開啟第一部分第四行 Mem 和 第五行 Swap 信息的表示

N - 以 PID 的大小的順序排列表示進程列表(第三部分後述)

P - 以 CPU 佔用率大小的順序排列進程列表 (第三部分後述)

M - 以內存佔用率大小的順序排列進程列表 (第三部分後述)

h - 顯示幫助

n - 設置在進程列表所顯示進程的數量

q - 退出 top

s -

改變畫面更新周期

第三部分 -- 最下部分的進程列表欄:

以 PID 區分的進程列表將根據所設定的畫面更新時間定期的更新。通過 top 內部命令可以控制此處的顯示方式

pmap

可以根據進程查看進程相關信息佔用的內存情況,(進程號可以通過ps查看)如下所示:
$ pmap -d 5647

ps

如下例所示:
$ ps -e -o 'pid,comm,args,pcpu,rsz,vsz,stime,user,uid' 其中rsz是是實際內存
$ ps -e -o 'pid,comm,args,pcpu,rsz,vsz,stime,user,uid' | grep oracle | sort -nrk

其中rsz為實際內存,上例實現按內存排序,由大到小

在Linux下查看內存我們一般用free命令:
[root@scs-2 tmp]# free
total used free shared buffers cached
Mem: 3266180 3250004 16176 0 110652 2668236
-/+ buffers/cache: 471116 2795064
Swap: 2048276 80160 1968116

下面是對這些數值的解釋:
total:總計物理內存的大小。
used:已使用多大。
free:可用有多少。
Shared:多個進程共享的內存總額。
Buffers/cached:磁碟緩存的大小。
第三行(-/+ buffers/cached):
used:已使用多大。
free:可用有多少。
第四行就不多解釋了。
區別:第二行(mem)的used/free與第三行(-/+ buffers/cache) used/free的區別。 這兩個的區別在於使用的角度來看,第一行是從OS的角度來看,因為對於OS,buffers/cached 都是屬於被使用,所以他的可用內存是16176KB,已用內存是3250004KB,其中包括,內核(OS)使用+Application(X, oracle,etc)使用的+buffers+cached.
第三行所指的是從應用程序角度來看,對於應用程序來說,buffers/cached 是等於可用的,因為buffer/cached是為了提高文件讀取的性能,當應用程序需在用到內存的時候,buffer/cached會很快地被回收。
所以從應用程序的角度來說,可用內存=系統free memory+buffers+cached。
如上例:
2795064=16176+110652+2668236

接下來解釋什麼時候內存會被交換,以及按什麼方交換。 當可用內存少於額定值的時候,就會開會進行交換。
如何看額定值:
cat /proc/meminfo

[root@scs-2 tmp]# cat /proc/meminfo
MemTotal: 3266180 kB
MemFree: 17456 kB
Buffers: 111328 kB
Cached: 2664024 kB
SwapCached: 0 kB
Active: 467236 kB
Inactive: 2644928 kB
HighTotal: 0 kB
HighFree: 0 kB
LowTotal: 3266180 kB
LowFree: 17456 kB
SwapTotal: 2048276 kB
SwapFree: 1968116 kB
Dirty: 8 kB
Writeback: 0 kB
Mapped: 345360 kB
Slab: 112344 kB
Committed_AS: 535292 kB
PageTables: 2340 kB
VmallocTotal: 536870911 kB
VmallocUsed: 272696 kB
VmallocChunk: 536598175 kB
HugePages_Total: 0
HugePages_Free: 0
Hugepagesize: 2048 kB

用free -m查看的結果:
[root@scs-2 tmp]# free -m
total used free shared buffers cached
Mem: 3189 3173 16 0 107 2605
-/+ buffers/cache: 460 2729
Swap: 2000 78 1921

查看/proc/kcore文件的大小(內存鏡像):
[root@scs-2 tmp]# ll -h /proc/kcore
-r-------- 1 root root 4.1G Jun 12 12:04 /proc/kcore

備註:

佔用內存的測量

測量一個進程佔用了多少內存,linux為我們提供了一個很方便的方法,/proc目錄為我們提供了所有的信息,實際上top等工具也通過這里來獲取相應的信息。

/proc/meminfo 機器的內存使用信息

/proc/pid/maps pid為進程號,顯示當前進程所佔用的虛擬地址。

/proc/pid/statm 進程所佔用的內存

[root@localhost ~]# cat /proc/self/statm

654 57 44 0 0 334 0

輸出解釋

CPU 以及CPU0。。。的每行的每個參數意思(以第一行為例)為:

參數 解釋 /proc//status

Size (pages) 任務虛擬地址空間的大小 VmSize/4

Resident(pages) 應用程序正在使用的物理內存的大小 VmRSS/4

Shared(pages) 共享頁數 0

Trs(pages) 程序所擁有的可執行虛擬內存的大小 VmExe/4

Lrs(pages) 被映像到任務的虛擬內存空間的庫的大小 VmLib/4

Drs(pages) 程序數據段和用戶態的棧的大小 (VmData+ VmStk )4

dt(pages) 04

查看機器可用內存

/proc/28248/>free

total used free shared buffers cached

Mem: 1023788 926400 97388 0 134668 503688

-/+ buffers/cache: 288044 735744

Swap: 1959920 89608 1870312

我們通過free命令查看機器空閑內存時,會發現free的值很小。這主要是因為,在linux中有這么一種思想,內存不用白不用,因此它盡可能的cache和buffer一些數據,以方便下次使用。但實際上這些內存也是可以立刻拿來使用的。

所以 空閑內存=free+buffers+cached=total-used

top命令 是Linux下常用的性能 分析工具 ,能夠實時顯示系統 中各個進程的資源佔用狀況,類似於Windows的任務管理 器。下面詳細介紹它的使用方法。

top - 02:53:32 up 16 days, 6:34, 17 users, load average: 0.24, 0.21, 0.24
Tasks: 481 total, 3 running, 474 sleeping, 0 stopped, 4 zombie
Cpu(s): 10.3%us, 1.8%sy, 0.0%ni, 86.6%id, 0.5%wa, 0.2%hi, 0.6%si, 0.0%st
Mem: 4042764k total, 4001096k used, 41668k free, 383536k buffers
Swap: 2104472k total, 7900k used, 2096572k free, 1557040k cached

PID USER PR NI VIRT RES SHR S %CPU %MEM TIME+ COMMAND
32497 jacky 20 0 669m 222m 31m R 10 5.6 29:27.62 firefox
4788 yiuwing 20 0 257m 18m 13m S 5 0.5 5:42.44 konsole
5657 Liuxiaof 20 0 585m 159m 30m S 4 4.0 5:25.06 firefox
4455 xiefc 20 0 542m 124m 30m R 4 3.1 7:23.03 firefox
6188 Liuxiaof 20 0 191m 17m 13m S 4 0.5 0:01.16 konsole

統計信息區前五行是系統整體的統計信息。第一行是任務隊列信息,同 uptime 命令的執行結果。其內容如下:

01:06:48 當前時間
up 1:22 系統運行 時間,格式為時:分
1 user 當前登錄用戶 數
load average: 0.06, 0.60, 0.48 系統負載 ,即任務隊列的平均長度。
三個數值分別為 1分鍾、5分鍾、15分鍾前到現在的平均值。

I. linux中如何組織文件,畫出文件目錄圖

1.列出文件清單命令:ls ls命令能夠列出當前目錄下的所有內容。ls 命令的執行方式為: # ls [-選項] [文件名或者目錄名] 進入到Linux命令行中後,我們至少要知道當前所處的位置有哪些內容,這些信息就可以使用ls命令來獲得。 在Linux中,ls命令...

J. linux 多路徑存儲是怎麼回事

Linux下HDS存儲多路徑查看
在Redhat下確定需要劃分的存儲空間。在本例中需要進行劃分的空間是從HDS AMS2000上劃分到伺服器的多路徑存儲空間。其中sddlmad為ycdb1上需要進行劃分的空間,sddlmah為ycdb2上需要進行劃分的空間。具體如下:
查看環境
# rpm -qa|grep device-mapper
device-mapper-event-1.02.32-1.el5
device-mapper-multipath-0.4.7-30.el5
device-mapper-1.02.32-1.el5
# rpm -qa|grep lvm2 lvm2-2.02.46-8.el5
查看空間
#fdisk -l
Disk /dev/sddlmad: 184.2 GB, 184236900352 bytes 255 heads, 63 sectors/track, 22398 cylinders Units = cylinders of 16065 * 512 = 8225280 bytes
Disk /dev/sddlmah: 184.2 GB, 184236900352 bytes

255 heads, 63 sectors/track, 22398 cylinders Units = cylinders of 16065 * 512 = 8225280 bytes
查看存儲
#cd /opt/DynamicLinkManager/bin/
#./dlnkmgr view -lu
Proct : AMS
SerialNumber : 83041424 LUs : 8
iLU HDevName Device PathID Status
0000 sddlmaa /dev/sdb 000000 Online
/dev/sdj 000008 Online
/dev/sdr 000016 Online
/dev/sdz 000017 Online

0001 sddlmab /dev/sdc 000001 Online
/dev/sdk 000009 Online
/dev/sds 000018 Online
/dev/sdaa 000019 Online
0002 sddlmac /dev/sdd 000002 Online
/dev/sdl 000010 Online
/dev/sdt 000020 Online
/dev/sdab 000021 Online
0003 sddlmad /dev/sde 000003 Online
/dev/sdm 000011 Online
/dev/s 000022 Online
/dev/sdac 000023 Online
0004 sddlmae /dev/sdf 000004 Online
/dev/sdn 000012 Online
/dev/sdv 000024 Online
/dev/sdad 000025 Online
0005 sddlmaf /dev/sdg 000005 Online
/dev/sdo 000013 Online
/dev/sdw 000026 Online
/dev/sdae 000027 Online
0006 sddlmag /dev/sdh 000006 Online
/dev/sdp 000014 Online
/dev/sdx 000028 Online
/dev/sdaf 000029 Online
0007 sddlmah /dev/sdi 000007 Online
/dev/sdq 000015 Online
/dev/sdy 000030 Online
/dev/sdag 000031 Online
##############################################################
4. lvm.conf的修改
為了能夠正確的使用LVM,需要修改其過濾器:
#cd /etc/lvm #vi lvm.conf
# By default we accept every block device
# filter = [ "a/.*/" ]
filter = [ "a|sddlm[a-p][a-p]|.*|","r|dev/sd|" ]
例:

[root@bsrunbak etc]# ls -l lvm*

[root@bsrunbak etc]# cd lvm
[root@bsrunbak lvm]# ls
archive backup cache lvm.conf
[root@bsrunbak lvm]# more lvm.conf

[root@bsrunbak lvm]# pvs

Last login: Fri Jul 10 11:17:21 2015 from 172.17.99.198
[root@bsrunserver1 ~]#
[root@bsrunserver1 ~]#
[root@bsrunserver1 ~]# df -h
Filesystem Size Used Avail Use% Mounted on
/dev/sda4 30G 8.8G 20G 32% /
tmpfs 95G 606M 94G 1% /dev/shm
/dev/sda2 194M 33M 151M 18% /boot
/dev/sda1 200M 260K 200M 1% /boot/efi
/dev/mapper/datavg-oraclelv
50G 31G 17G 65% /oracle
172.16.110.25:/Tbackup
690G 553G 102G 85% /Tbackup
/dev/mapper/tmpvg-oradatalv
345G 254G 74G 78% /oradata
/dev/mapper/datavg-lvodc
5.0G 665M 4.1G 14% /odc
[root@bsrunserver1 ~]# pvs
PV VG Fmt Attr PSize PFree
/dev/sda5 datavg lvm2 a-- 208.06g 153.06g
/dev/sddlmba tmpvg lvm2 a-- 200.00g 49.99g
/dev/sddlmbb tmpvg lvm2 a-- 200.00g 0
[root@bsrunserver1 ~]# cd /etc/lvm
[root@bsrunserver1 lvm]# more lvm.conf
# Don't have more than one filter line active at once: only one gets
used.

# Run vgscan after you change this parameter to ensure that
# the cache file gets regenerated (see below).
# If it doesn't do what you expect, check the output of 'vgscan -vvvv'.

# By default we accept every block device:
# filter = [ "a/.*/" ]

# Exclude the cdrom drive
# filter = [ "r|/dev/cdrom|" ]

# When testing I like to work with just loopback devices:
# filter = [ "a/loop/", "r/.*/" ]

# Or maybe all loops and ide drives except hdc:
# filter =[ "a|loop|", "r|/dev/hdc|", "a|/dev/ide|", "r|.*|" ]

# Use anchors if you want to be really specific
# filter = [ "a|^/dev/hda8$|", "r/.*/" ]
filter = [ "a|/dev/sddlm.*|", "a|^/dev/sda5$|", "r|.*|" ]

[root@bsrunserver1 lvm]# df
Filesystem 1K-blocks Used Available Use% Mounted on
/dev/sda4 30963708 9178396 20212448 32% /
tmpfs 99105596 620228 98485368 1% /dev/shm
/dev/sda2 198337 33546 154551 18% /boot
/dev/sda1 204580 260 204320 1% /boot/efi
/dev/mapper/datavg-oraclelv
51606140 31486984 17497716 65% /oracle
172.16.110.25:/Tbackup
722486368 579049760 106736448 85% /Tbackup
/dev/mapper/tmpvg-oradatalv
361243236 266027580 76865576 78% /oradata
/dev/mapper/datavg-lvodc
5160576 680684 4217748 14% /odc
[root@bsrunserver1 lvm]#
You have new mail in /var/spool/mail/root
[root@bsrunserver1 lvm]#
[root@bsrunserver1 lvm]# pvs
PV VG Fmt Attr PSize PFree
/dev/sda5 datavg lvm2 a-- 208.06g 153.06g
/dev/sddlmba tmpvg lvm2 a-- 200.00g 49.99g
/dev/sddlmbb tmpvg lvm2 a-- 200.00g 0
[root@bsrunserver1 lvm]#
進入文件:
[root@bsrunbak lvm]# cd /opt/D*/bin
or
[root@bsrunbak bin]# pwd
/opt/DynamicLinkManager/bin
顯示HDS存儲卷:
[root@bsrunbak lvm]# ./dlnkmgr view -lu