⑴ 電腦里的AKamai Netsession Interface是什麼意思啊!能不能刪了!!
Akamai NetSession界面通常是這些應用程序所需要的網路組件。提高下載速度,縮短下載時間。後台運行,佔用最小的系統資源。Akamai下載管理器是基於Akamai NetSession界面的應用程序之一。
應該是裝什麼軟體帶的這個程序,這個不是系統必須文件,可以刪除。
⑵ 如何優化web伺服器的訪問速度
網站運營的任何時期,網站訪問速度都是至關重要的部分,它是網站友好體驗中最基本的一項,如果訪問體驗都令人不滿意,那麼後期所做的營銷推廣模式都有可能徒勞無功,因為網路中客戶的選擇成本很低,加上普遍客戶的耐心都不高,頁面訪問超過6秒客戶就會選擇離開,這對於一些流量本來就不高的企業網站來說無疑是雪上加霜。
一、升級正在使用中的伺服器
進行伺服器升級工作之前,要考慮多方面的問題,是升級已有的伺服器還是購置新的伺服器設備須根據實際情況抉擇。首先來說升級現有的伺服器設備,一般來說網站運營到後期隨著業務不斷增加,多平台應用的開發對於伺服器性能的要求也逐步提升,長而久之伺服器遇到性能瓶頸也是情理之中的事情,對於這種情況,我們可以通過升級伺服器(例如增加硬體設備或網路帶寬)等相關配置來滿足不斷擴大的業務需求,那麼伺服器性能瓶頸問題就可以得到解決。
二、優化正在使用的伺服器
不管是完成升級後的伺服器,還是新購置的伺服器,我們都要對其進行優化,從而提升伺服器的性能以及利用率。如何優化伺服器?作為在國互網工作到現在的資深IDC工作人員,小編認為大概分為以下四個方面
要點一:盡可能的減少HTTP請求數
從客戶訪問網站頁面到整個頁面內容完全展現出來,這其中要花費較多的時間來下載各種Scripts、CSS樣式表、Flash以及圖片,而每一類下載都相當於一次HTTP請求,這樣的請求越多網站被完全載入出來所花的時間會越長,意味著客戶端的訪問會很慢,那麼此時就需要盡可能的減少HTTP請求數,通常我們可以直接把css和js寫入到頁面中,避免了外部的調用;或者我們可以把CSS文件和JS文件分來,在後台再進行合並,這樣客戶端瀏覽器相當於一次請求。這是小編在國互網美女前端那學來的。
要點二:降低DNS查詢時間
眾所周知網路伺服器端的域名和IP地址是相互對應的,當客戶端發出請求時,計算機還需要通過域名和IP地址的相互轉換來判斷,而這個轉換工作便是域名解析DNS,通常DNS的查詢需要10~20毫秒時間,客戶端瀏覽器也只會等待DNS查詢結束之後才會載入此域名下的內容。因此,我們要加快頁面的訪問速度,就可以從降低DNS查詢時間方面去做改善。
要點三:啟用伺服器Gzip壓縮功能
對於大中型網站來說,頁面的內容多且比較多樣化,單個頁面的大小可能是幾百K以上了,客戶端訪問的時候下載會比較慢,此時我們可以採用伺服器Gzip頁面壓縮功能,可以將一個大小為100K的頁面文件壓縮成25K以下,這樣就可以減少網路傳輸的數量從而提高客戶端訪問速度。一般伺服器都是可以使用Gzip壓縮功能的,並且能夠針對JS文件、CSS文件和Html進行壓縮,多方面去進行優化網站訪問速度。
要點四:推薦大中型網站使用CDN加速工具
CDN加速是目前大型網站普遍使用的頁面加速方式,它對於網站優化幾乎沒有影響的,基本原理是將網站鏡像備份到很多伺服器節點上,使伺服器節點周圍的用戶訪問速度更快,從而提升客戶端高速訪問網站的體驗;但是並不是所有的網站都適合使用CDN加速,一般對於小規模站點個人站的話,就不需要使用CDN加速,畢竟從長期來看這可是一筆不小的開支;建議圖片站以及多媒體站點可使用CDN加速。
希望以上知識能夠幫到您
⑶ 0.......
2001年秋天互聯網公司(dot-com)泡沫的破滅標志著互聯網的一個轉折點。許多人斷定互聯網被過分炒作,事實上網路泡沫和相繼而來的股市大衰退看起來像是所有技術革命的共同特徵。股市大衰退通常標志著蒸蒸日上的技術已經開始佔領中央舞台。假冒者被驅逐,而真正成功的故事展示了它們的力量,同時人們開始理解了是什麼將一個故事同另外一個區分開來。
「Web 2.0」的概念開始於一個會議中,展開於O'Reilly公司和MediaLive國際公司之間的頭腦風暴部分。所謂互聯網先驅和O'Reilly公司副總裁的戴爾·多爾蒂(Dale Dougherty)注意到,同所謂的「崩潰」迥然不同,互聯網比其他任何時候都更重要,令人激動的新應用程序和網站正在以令人驚訝的規律性涌現出來。更重要的是,那些倖免於當初網路泡沫的公司,看起來有一些共同之處。那麼會不會是互聯網公司那場泡沫的破滅標志了互聯網的一種轉折,以至於呼籲「Web 2.0」的行動有了意義?我們都認同這種觀點,Web 2.0會議由此誕生。
在那個會議之後的一年半的時間里,「Web 2.0」一詞已經深入人心,從Google上可以搜索到950萬以上的鏈接。但是,至今關於Web 2.0的含義仍存在極大的分歧,一些人將Web 2.0貶低為毫無疑義的一個行銷炒作口號,而其他一些人則將之理解為一種新的傳統理念。
本文就是來嘗試澄清Web 2.0本來意義。
在我們當初的頭腦風暴中,我們已經用一些例子,公式化地表達了我們對Web 2.0的理解:
Web 1.0 Web 2.0
DoubleClick Google AdSense
Ofoto Flickr
Akamai BitTorrent
mp3.com Napster
大英網路全書在線(Britannica Online) 維基網路全書(Wikipedia)
個人網站 博客(blogging)
evite upcoming.org和EVDB
域名投機 搜索引擎優化
頁面瀏覽數 每次點擊成本
屏幕抓取(screen scraping) 網路服務(web services)
發布 參與
內容管理系統 維基
目錄(分類) 標簽(「分眾分類」,folksonomy)
粘性 聚合
這個列表還會不斷繼續下去。但是到底是什麼,使得我們認定一個應用程序或一種方式為作所謂「Web 1.0」,而把另外一個叫做「Web 2.0」呢?(這個問題尤為緊迫,因為Web 2.0的觀念已經傳播的如此廣泛,以至於很多公司正在將這個詞加到他們的行銷炒作中,但卻沒有真正理解其含義。同時這個問題也尤為困難,因為許多嗜好口號的創業公司顯然不是Web 2.0,而一些我們認為是Web 2.0的應用程序,例如Napster和BitTorrent,甚至不是真正適當的網路程序!)我們首先來探討一些原則,這些原則是通過Web 1.0的一些成功案例,以及一些最為有趣的新型應用程序來體現的。
1. 互聯網作為平台
正如許多重要的理念一樣,Web 2.0沒有一個明確的界限,而是一個重力核心。不妨將Web 2.0視作一組原則和實踐,由此來把距離核心或遠或近的網站組成為一個類似太陽系的網路系統,這些網站或多或少地體現著Web 2.0的原則。
圖1為Web 2.0的「模擬圖」,該圖是在名為「O'Reilly的朋友」(Friend Of O』reilly, FOO)的會議的一個研討會上產生的。這個圖基本上仍處於演化階段,但已經描繪出了 從Web 2.0核心理念中衍生出的許多概念。
例如,在2004年10月的第一次Web 2.0的會議上,約翰·巴特利(John Battelle)和我在我們各自的開場白中列舉了一組初步的原則。
這些原則中的第一條就是「互聯網作為平台」。這也曾是Web 1.0的寵兒網景公司(Netscape)的戰鬥口號,而網景在同微軟的大戰中隕落了。此外,我們早先的Web 1.0的楷模中的兩個,DoubleClick和Akamai公司,皆是將網路當作平台的先驅。人們往往不認為這是一種網路服務,但事實上,廣告服務是第一個被廣泛應用的網路服務,同時也是第一個被廣泛應用的混合處理(mashup),如果用另一個近來流行的詞來說的話。每個旗幟廣告(banner ad)都是用來在兩個網站之前無縫合作,向位於另外一台計算機上的讀者傳遞一個整合好的頁面。
Akamai也將網路看作平台,並且在一個更深入的層次上,來搭建一個透明的緩存和內容分發網路,以便降低寬頻的擁塞程度。
雖然如此,這些先驅提供了有益的對比,因為後來者遇到同樣問題的時候,可以將先驅們的解決方案進一步延伸,從而對新平台本質的理解也更為深刻了。DoubleClick和Akamai都是Web 2.0的先驅,同時我們也可以看到,可以通過引入更多Web 2.0的設計模式,來實現更多的應用。
讓我們對這三個案例中的每一個都作一番深究,來探討其間的一些本質性的差別。
Netscape 對 Google
如果Netscape可以稱為Web 1.0的旗手,那麼Google幾乎可以肯定是Web 2.0的旗手,只要看看他們的首次公開上市(IPO)是如何地揭示了各自的時代就清楚了。所以我們就從這兩個公司和其定位的差別入手。
Netscape以傳統的軟體摹本來勾勒其所謂「互聯網作為平台」:他們的旗艦產品是互聯網瀏覽器,一個桌面應用程序。同時,他們的戰略是利用他們在瀏覽器市場的統治地位,來為其昂貴的伺服器產品建立起市場。從理論上講,在瀏覽器中控制顯示內容和程序的標准,賦予了Netscape一種市場支配力,如同微軟公司在個人計算機市場上所享受的一樣。很像當初「自行的馬車」(horseless carriage)將汽車描繪為一種熟知事物的延伸,Netscape曾推銷一種網路桌面(webtop)來替代傳統的桌面(desktop),並且計劃藉助信息更新,以及由購買了Netscape伺服器的信息提供者來推送的各種小程序,來開發推廣這種網路桌面。
最終,瀏覽器和網路伺服器都變成了「日用品」,同時價值鏈條也向上移動到了在互聯網平台上傳遞的服務。
作為對比,Google則以天生的網路應用程序的角色問世,它從不出售或者打包其程序,而是以服務的方式來傳遞。客戶們直接或間接地為其所使用的服務向Google付費。原有軟體工業缺陷盪然無存。沒有了定期的軟體發布,只需要持續的改善。沒有了許可證或銷售,只需要使用。沒有了為了讓用戶在其設備上運行軟體而不得不進行的平台遷移,只需要搭建宏大的、由眾多個人計算機組成的、可伸縮的網路,其上運行開源操作系統,及其及自行研製的應用程序和工具,而公司之外的任何人則永遠無法接觸到這些東西。
在其底層,Google需要一種Netscape從未需要過的能力:資料庫管理。Google遠遠不只是一個軟體工具的集合,它是一個專業化的資料庫。沒有這些數據,那些工具將毫無用武之地;沒有這些軟體,數據也將無可控制。軟體許可證制度和對應用程序介面(API)的控制——上一個時代的法寶——已經毫不相關了,因為Google的軟體只需要執行而從不需要分發,也因為如果不具備收集和管理數據的能力,軟體本身就沒有什麼用處了。事實上,軟體的價值是同它所協助管理的數據的規模和活性成正比的。
Google的服務不是一個簡單的伺服器,雖然其服務是通過大規模的互聯網伺服器集合來傳遞的;其服務也不是一個瀏覽器,雖然這種服務是被用戶在瀏覽器中體驗到的。Google的旗艦產品——搜索服務,甚至不託管它讓用戶來搜尋的內容。很像一個電話通話過程,不僅發生在通話的兩端,而且發生在中間的網路上。作為用戶和其在線體驗的一個中介,Google作用於瀏覽器、搜索引擎和最終的內容伺服器之間的空間中。
雖然Netscape和Google都可以被描述為軟體公司,但顯然Netscape可以歸到Lotus,Microsoft,Oracle,SAP,以及其他發源於上個世紀八十年代軟體革命的那些公司所組成的軟體世界。而Google的同伴們,則是像eBay,Amazon,Napster,及至DoubleClick和Akamai這樣的互聯網公司。
DoubleClick對Overture和AdSense
同Google類似,DoubleClick是一個名副其實的互聯網時代的孩子。它把軟體作為一種服務,在數據管理方面具有核心競爭力,並且正如上文所述,它是一個早在連網路服務的名字還不曾有的時候,就已然開始其服務的先驅。然而,DoubleClick最終還是被其商業模式局限住了。它所貫徹的是九十年代的互聯網觀念。這種觀念圍繞著出版,而不是參與;圍繞著廣告客戶,而不是消費者,來進行操縱;圍繞著規模,認為互聯網會被如MediaMetrix等網路廣告評測公司尺度下的所謂頂級網站所統治。
結果是,DoubleClick得意地在其網站上引用道:「超過2000種的成功應用」。而相對比的是,Yahoo!公司的搜索市場(從前的Overture)和Google的AdSense產品,已經在為幾十萬的廣告客戶服務。
Overture和Google的成功源自於對克里斯·安德森(Chris Anderson)提到的所謂「長尾」的領悟,即眾多小網站集體的力量提供了互聯網的大多數內容。DoubleClick的產品要求一種簽訂正式的銷售合同,並將其市場局限於很少的幾千個大型網站。Overture和Google則領會到如何將廣告放置到幾乎所有網頁上。更進一步地,它們迴避了發行商和廣告代理們所喜愛的廣告形式,例如旗幟廣告和彈出式廣告,而採用了干擾最小的、上下文敏感的、對用戶友好的文字廣告形式。
Web 2.0的經驗是:有效利用消費者的自助服務和演算法上的數據管理,以便能夠將觸角延伸至整個互聯網,延伸至各個邊緣而不僅僅是中心,延伸至長尾而不僅僅是頭部。
毫不奇怪,其他Web 2.0的成功故事也顯示著同樣的軌跡。eBay扮演著一個自動的中間媒介的角色,使個體之間發生的幾個美元的偶然性的交易成為可能。Napster(雖然已經出於法律原因而關閉)將其網路建立在一個集中的歌曲資料庫之上,但是它讓每一個下載者都成為一台伺服器,從而使其網路逐漸擴大。
Akamai 對 BitTorrent
同DoubleClick類似,Akamai的業務重點面向網路的頭部,而不是尾部;面向中心,而不是邊緣。雖然它服務於那些處於網路邊緣的個體的利益,為他們訪問位於互聯網中心的高需求的網站鋪平了道路,但它的收入仍然來自從那些位於中心的網站。
BitTorrent,像P2P風潮中的其他倡導者一樣,採用了一種激進的方式來達到互聯網去中心化(internet decentralization)的目的。每個客戶端同時也是一個伺服器;文件被分割成許多片段,從而可以由網路上的多個地方提供,透明地利用了網路的下載者來為其他下載者提供帶寬和數據。事實上,文件越流行下載得越快,因為有更多的用戶在為這個文件提供帶寬和各個片段。
BitTorrent由此顯示出Web 2.0的一個關鍵原則:用戶越多,服務越好。一邊是Akamai必須增加伺服器來改善服務,另一邊是BitTorrent用戶將各自的資源貢獻給大家。可以說,有一種隱性的「參與體系」內置在合作準則中。在這種參與體系中,服務主要扮演著一個智能代理的作用,將網路上的各個邊緣連接起來,同時充分利用了用戶自身的力量。
2. 利用集體智慧
在誕生於Web 1.0時代並且存活了下來,而且要繼續領導Web 2.0時代的那些巨人的成功故事的背後,有一個核心原則,就是他們藉助了網路的力量來利用集體智慧:
--超級鏈接是互聯網的基礎。當用戶添加新的內容和新的網站的時候,將被限定在一種特定的網路結構中,這種網路結構是由其他用戶發現內容並建立鏈接的。如同大腦中的神經突觸,隨著彼此的聯系通過復制和強化變得越來越強,而作為所有網路用戶的所有活動的直接結果,互聯的網路將有機地成長。
--Yahoo!是第首例偉大的成功故事,誕生於一個分類目錄,或者說是鏈接目錄,一個對數萬甚至數百萬網路用戶的最精彩作品的匯總。雖然後來Yahoo!進入了創建五花八門的內容的業務,但其作為一個門戶來收集網路用戶們集體作品的角色,依然是其價值核心。
--Google在搜索方面的突破在於PageRank技術,該技術令其迅速成為搜索市場上毫無爭議的領導者。PageRank是一種利用了網路的鏈接結構,而不是僅僅是使用文檔的屬性,來實現更好的搜索效果的方法。
--eBay的產品是其全部用戶的集體活動,就向網路自身一樣,eBay隨著用戶的活動而有機地成長,而且該公司的角色是作為一個特定環境的促成者,而用戶的行動就發生在這種環境之中。更重要的是,eBay的競爭優勢幾乎都來自於關鍵性的大量的買家和賣家雙方,而這正是這一點使得後面許多競爭者的產品的吸引力顯著減低。
--Amazon銷售同Barnesandnoble.com等競爭者相同的產品,同時這些公司從賣方獲得的是同樣的產品描述、封面圖片和目錄。所不同的是,Amazon已然締造出了一門關於激發用戶參與的科學。Amazon擁有比其競爭者高出一個數量級以上的用戶評價,以及更多的邀請來讓用戶以五花八門的方式,在近乎所有的頁面上進行參與,而更為重要的是,他們利用用戶的活動來產生更好的搜索結果。Barnesandnoble.com的搜索結果很可能指向該公司自己的產品,或者是贊助商的結果,而Amazon則始終以所謂「最流行的」打頭,這是一種實時計算,不僅基於銷售,而且基於其他一些被Amazon內部人士稱為圍繞著產品「流動」(flow)的因素。由於擁有高出對手一個數量級的用戶參與,Amazon銷售額超出競爭對手也就不足為奇了。
現在,具備了這種洞察力,並且可能會將之延伸開來的那些創新型的公司,正在互聯網上留下他們的印跡。
維基網路全書(Wikipedia)是一種在線網路全書,其實現基於一種看似不可能的觀念。該觀念認為一個條目可以被任何互聯網用戶所添加,同時可以被其他任何人編輯。無疑,這是對信任的一種極端的實驗,將埃里克·雷蒙德(Eric Raymond)的格言(源自開放源碼軟體的背景之下):「有足夠的眼球,所有的程序缺陷都是膚淺的」(with enough eyeballs, all bugs are shallow)運用到了內容的創建之中。維基網路全書已然高居世界網站百強之列,並且許多人認為它不久就將位列十強。這在內容創建方面是一種深遠的變革。
像del.icio.us(美味書簽)和Flickr這樣的網站,其公司已經在近期獲得了廣泛的關注,並且已經在一種被人們成為「分眾分類」(folksonomy,有別於傳統分類法)的概念上成為先行者。「分眾分類」是一種使用用戶自由選擇的關鍵詞對網站進行協作分類的方式,而這些關鍵詞一般稱為標簽(tags)。標簽化運用了像大腦本身所使用的那種多重的、重疊的關聯,而不是死板的分類。舉一個經典的例子,在Flickr網站上,一幅小狗照片可能被加上「小狗」和「可愛」這樣的標簽,從而允許系統依照用戶行為所產生的自然的方式來進行檢索。
協作式垃圾信息過濾產品,例如Cloudmark,就聚集了電子郵件用戶們對於「一封郵件是或者不是垃圾郵件」的眾多相互獨立的決策,從而勝過了依賴於分析郵件本身的那些系統。
偉大的互聯網成功者並不主動地到處推銷其產品,這幾乎成為公理。他們採用「病毒式營銷」(viral marketing)的方式,也就是說,一些推介會直接從一個用戶傳播到另外一個用戶。如何一個網站或產品依賴廣告來進行宣傳,你幾乎可以斷定它不是Web 2.0。
即便許多互聯網基礎設施本身,包括在大多數網路伺服器中用到的Linux,Apache,MySQL,以及Perl,PHP或Python代碼,也都依靠開放源碼的對等生產(peer-proction)的方式。其中包含了一種集體的、網路賦予的智慧。在SourceForge.net網站上列有至少10萬種開放源碼軟體項目。任何人都可以添加一個項目,任何人都可以下載並使用項目代碼。
同時,由於作為用戶使用的結果,新的項目從邊緣遷移到中心。一個對軟體的有機的接受過程幾乎完全依靠病毒式營銷。同時,作為用戶應用的結果,新的項目從邊緣遷移到中心,這是一種幾乎完全依靠病毒式營銷的,有機的軟體採用過程,。
經驗是:源於用戶貢獻的網路效應,是在Web 2.0時代中統治市場的關鍵。
⑷ 海洋cms怎麼用命令刪除空數據
系統——>數據表與系統模型——>管理數據表。
把不需要的數據表直接刪除掉就可以了。
刪除掉不需要用的數據表,那麼資料庫中的表也是自動刪除的。
但是刪除之前,最好做數據備份,以免操作失誤造成數據丟失!
CMS是ContentManagementSystem的縮寫,意為"內容管理系統"。
在中國互聯網的發展歷程中,一直以來默默地為中國站長提供動力的CMS廠商作出 的貢獻尤其巨大,而與之成反比的是CMS廠商的生存狀態依然令人擔憂,由於國內站長對於免費和開源的FreeEIM尤為熱衷,用戶的版權意識低加之用戶誤將開源認 為就是免費的,使得一些獲得資本注入的CMS廠商無法達到預期的目標,導致PHPCMS創始人淡淡風和DEDECMS創始人IT柏拉圖相繼離職事件,亦是2010年CMS行業最大的新聞,交流中,感受更多的是他們只是成功的技術狂熱者,還不算真正的商人,CMS行業之路對他們還任重道遠。
從企事業單位信息化的觀點來看,以下因素導致對內容管理軟體的巨大需求:
(1) 知識是企業的財富。在Internet交互過程中,只有十分之一涉及銷售,其他十分之九都和信息交互有關,員工的知識獲取越來越依賴於互聯網,特別是在電子商務的個性化環境中,客戶為了做出購買決定,需要智能化地獲取信息,不僅僅是商品的數量和價格,更重要的可能是產品的手冊、安全保證、技術指標、售後服務、圖片文件等等。
(2) 信息的及時性和准確性。無論在企業內網還是外網,信息的更新越來越快,企事業單位的信息生產量越來越多,且呈現成倍增長的趨勢,企事業單位更需要的是一個功能強大、可擴展的、靈活的內容管理技術來滿足不斷的信息更新、維護,這時如何保證信息的准確性和真實性將越來越顯得重要。
(3) 企業內外網統一的需求增長。隨著企事業單位信息化的建設,內聯網和外聯網之間的信息交互越來越多,優秀的內容管理系統對企業內部來說,能夠很好地做到信息的收集和重復利用以及信息的增值利用, 對於外聯網來說,更重要的是真正互動式和協作性的內容。
國外從事內容管理軟體研發的主要廠商包括Vignette,Interwoven, BroadVision, Openmarket,ATG, Allaire, Documentum, Hummingbird等,這些公司CM產品和解決方案專業性很強,大多基於J2EE等平台,功能豐富,主要面向企業級用戶,是CM市場的主要廠商。還有一些更窄的專業廠商提供內容管理某個階段需要的功能,如Verity 提供知識檢索,Micromedia 提供內容創作平台,Akamai和Inkitomi 提供內容分發管理技術等。與此相反,Microsoft, IBM, Oracle等公司提供通用平台性CM解決方案。
在這個全新的市場中很難找到一個CMS滿足用戶的所有需求。
有些CMS只是單純的信息發布工具而已,稱不上內容的收集和再利用更談不上知識管理的概念,最多隻是一組網站建設工具軟體而已。
所有產品的可視鏈接都非常差,只有極少數廠商能夠提供可視軟體,這些軟體都不是互動式的,不能用作管理工具。
CMS都有可能包括些什麼?
隱藏在內容管理系統(CMS)之後的基本思想是分離內容的管理和設計。頁面設計存儲在模板里,而內容存儲在資料庫或獨立的文件中。 當一個用戶請求頁面時,各部分聯合生成一個標準的HTML(標准通用標記語言下的一個應用)頁面。
一個內容管理系統通常有如下要素:
文檔模板
腳本語言或標記語言
與資料庫集成
內容的包含物由內嵌入頁面的特殊標記控制。這些標記對於一個內容管理系統通常是唯一的。 這些系統通常有對較復雜的操作的語言支持,如Python,Perl, 或Java等。
內容管理系統對站點管理和創造編輯都有好處。這其中最大的好處是能夠使用模板和通用的設計元素以確保整個網站的協調。 作者只需在他們的文檔中採用少量的模板代碼,然後即可把精力集中在設計之上的內容了。要改變網站的外觀,管理員只需修改模板而不是一個個單獨的頁面。
內容管理系統也簡化了網站的內容供給和內容管理的責任委託。很多內容管理系統允許對網站的不同層面人員賦予不同等級的訪問許可權, 這使得他們不必研究操作系統級的許可權設置,只需用瀏覽器介面即可完成。
其他的特性如:搜索引擎、日歷、Web 郵件等也會內置於內容管理系統CMS 內,或允許以第三方插件的形式集成進來。
⑸ 怎麼關閉cloudflare ipv6
1注冊2注冊後點login登陸cloudflare.輸入自己的網站,然後點擊addwebsite按鈕。接著等待60秒的掃描。掃描結束,點擊continue繼續。3進入DNS設置注意把mx那一行刪掉,即點擊delete。如圖為刪掉多餘行之後的。綠色的雲朵代表是開著加速。灰色為沒有開啟。可以自己檢查下。然後進入下一步。接下來不用任何修改,我們選的是0元免費的,點continue。4不同的域名管理地址不同。比如在萬網買的域名,就在萬網登陸,修改域名的伺服器。對應修改。5需要注意的是,更改域名的DNS伺服器,可能需要一段時間才會生效,最多可能需要48小時。但是這並不影響您的訪問。這個步驟完成,點繼續。6這時CDN就完全設置好了。生效後,下圖中紅色會變成綠色的對號。在查自己網站的ip會發現ip顯示的不再是伺服器ip,而是cloudflare公司的ip。
⑹ 我有一個網站是.NET做的,因為本人不懂.net就用ASP寫了個簡單的後台,結果經常出現'80004005' 錯誤
重要,因為顏色是整體風格的最集中的體現;如果顏色確定偏差將直接導致與所要表達風格的錯位,大大降低效果.本人常使用的顏色如下:
3. 依據功能確定整體框架;
整體框架確定的出發點是對功能展現的效果上,以及操作簡便性.
4. 統一風格,統一實現方式;
統一的目的是為了讓使用者在使用本系統時,不論操作到那個功能模塊,都感覺到本系統是一個統一融合的整體,就好像由一個人開發實現的;為什麼要這樣做呢?就好像一個人與一個人進行交流相對比較容易,只要清楚一個人的秉性就可以嫻熟的與其交流,如果讓這個人與十個人進行交流,並且在交流時經常更換人,可以想像這將是一件多麼痛苦的事情啊!
統一風格主要有顏色、字體、按鈕、列表、表單、報表等;
統一實現方式主要有添加、刪除、修改、查詢、分頁等.
5. 頁面細節決定系統專業程度;
經過對比以前系統和其他公司的系統,發現系統在細節上考慮的很是不足;分析比較專業的系統,發現其頁面的框架和風格與我公司系統幾乎差不說,但是在具體實現細節上,人家考慮的十分周到細致,這顯然是通過多個項目積累出來的,而我公司往往每做一個新項目時,都會更換一套新的頁面風格,給人新鮮感,其實經過幾個項目觀察下來其內部實現細節並沒有多少累積,所有本人覺得不是在十分必要的情況下,不易經常更換頁面的整體風格,而應該有一定的延續性,集中精力多從具體實現細節上下功夫,多從用戶的使用體驗上思考該如何實現,多完善實現的細節,最終實現一個非常專業的系統.
頁面的細節如按鈕大小、單元格寬度、列表大小、輸入框錄入位元組多少控制、表單錄入項的驗證等等.
6. 用戶體驗決定系統品質;
關於用戶體驗是本人一直在思考的問題,到底如何才能提高用戶體驗呢?應從使用者的視覺感觀、操作效果、思維過程等方面尋找答案,比如用紅色作為企業級應用的主體色,就要很慎重了,因為紅色是代表著激情、熱烈與企業級應用的要求差距較大,這樣就影響視覺效果;比如需要進行層次較多的選擇時,以前會先用一個列表選擇進去,再選擇其相應的子選項進行查詢、添加等操作,這樣操作效果就很差很羅嗦,對於這樣情況採用旁邊放顆樹進行選擇,不失為一個好的表現形式;比如要實現一些審核性、流程性、過程性的業務,可以考慮採用流程圖的形式,這樣非常直觀明了而且易操作;比如要常實現的添加、刪除、修改、查詢等操作時,如何在頁面上組織它們才能使用戶使用方便,這時就要考慮用戶通常的思維過程是如何的,據此實現,用戶使用起來就會方便舒心.
以上就是本人在項目開發過程中的幾點體會,一直想寫,今日終於完成,很是高興!本人是想想寫寫思路比較凌亂,希望大家多批評指教,謝謝!
你看上面的行嗎?
就你問題補充:
數據層性能 技巧 1 — 返回多個結果集 技巧 2 — 分頁的數據訪問 技巧 3 — 連接池 技巧 4 — ASP.NET 緩存 API 技巧 5 — 每請求緩存 技巧 6 — 後台處理 技巧 7 — 頁輸出緩存和代理伺服器 技巧 8 — 運行 IIS 6.0(只要用於內核緩存) 技巧 9 — 使用 Gzip 壓縮 技巧 10 — 伺服器控制項視圖狀態 小結 ==================================================== 使用 ASP.NET 編寫 Web 應用程序的簡單程度令人不敢相信。正因為如此簡單,所以很多開發人員就不會花時間來設計其應用程序的結構,以獲得更好的性能了。在本文中,我將講述 10 個用於編寫高性能 Web 應用程序的技巧。但是我並不會將這些建議僅局限於 ASP.NET 應用程序,因為這些應用程序只是 Web 應用程序的一部分。本文不作為對 Web 應用程序進行性能調整的權威性指南 — 一整本書恐怕都無法輕松講清楚這個問題。請將本文視作一個很好的起點。 成為工作狂之前,我原來喜歡攀岩。在進行任何大型攀岩活動之前,我都會首先仔細查看指南中的路線,閱讀以前遊客提出的建議。但是,無論指南怎麼好,您都需要真正的攀岩體驗,然後才能嘗試一個特別具有挑戰性的攀登。與之相似,當您面臨修復性能問題或者運行一個高吞吐量站點的問題時,您只能學習如何編寫高性能 Web 應用程序。 我的個人體驗來自在 Microsoft 的 ASP.NET 部門作為基礎架構程序經理的經驗,在此期間我運行和管理 ,幫助設計社區伺服器的結構,社區伺服器是幾個著名 ASP.NET 應用程序(組合到一個平台的 ASP.NET Forums、.Text 和 nGallery)。我確信有些曾經幫助過我的技巧對您肯定也會有所幫助。 您應該考慮將應用程序分為幾個邏輯層。您可能聽說過 3 層(或者 n 層)物理體系結構一詞。這些通常都是規定好的體系結構方式,將功能在進程和/或硬體之間進行了物理分離。當系統需要擴大時,可以很輕松地添加更多的硬體。但是會出現一個與進程和機器跳躍相關的性能下降,因此應該避免。所以,如果可能的話,請盡量在同一個應用程序中一起運行 ASP.NET 頁及其相關組件。 因為代碼分離以及層之間的邊界,所以使用 Web 服務或遠程處理將會使得性能下降 20% 甚至更多。 數據層有點與眾不同,因為通常情況下,最好具有專用於資料庫的硬體。然而進程跳躍到資料庫的成本依然很高,因此數據層的性能是您在優化代碼時首先要考慮的問題。 在深入應用程序的性能修復問題之前,請首先確保對應用程序進行剖析,以便找出具體的問題所在。主要性能計數器(如表示執行垃圾回收所需時間百分比的計數器)對於找出應用程序在哪些位置花費了其主要時間也非常有用。然而花費時間的位置通常非常不直觀。 本文講述了兩種類型的性能改善:大型優化(如使用 ASP.NET 緩存),和進行自身重復的小型優化。這些小型優化有時特別有意思。您對代碼進行一點小小的更改,就會獲得很多很多時間。使用大型優化,您可能會看到整體性能的較大飛躍。而使用小型優化時,對於某個特定請求可能只會節省幾毫秒的時間,但是每天所有請求加起來,則可能會產生巨大的改善。 數據層性能 談到應用程序的性能調整,有一個試紙性的測試可用來對工作進行優先順序劃分:代碼是否訪問資料庫?如果是,頻率是怎樣的?請注意,這一相同測試也可應用於使用 Web 服務或遠程處理的代碼,但是本文對這些內容未做講述。 如果某個特定的代碼路徑中必需進行資料庫請求,並且您認為要首先優化其他領域(如字元串操作),則請停止,然後執行這個試紙性測試。如果您的性能問題不是非常嚴重的話,最好花一些時間來優化一下與資料庫、返回的數據量、進出資料庫的往返頻率相關的花費時間。 了解這些常規信息之後,我們來看一下可能會有助於提高應用程序性能的十個技巧。首先,我要講述可能會引起最大改觀的更改。 =============================== 技巧 1 — 返回多個結果集 仔細查看您的資料庫代碼,看是否存在多次進入資料庫的請求路徑。每個這樣的往返都會降低應用程序可以提供的每秒請求數量。通過在一個資料庫請求中返回多個結果集,可以節省與資料庫進行通信所需的總時間長度。同時因為減少了資料庫伺服器管理請求的工作,還會使得系統伸縮性更強。 雖然可以使用動態 SQL 返回多個結果集,但是我首選使用存儲過程。關於業務邏輯是否應該駐留於存儲過程的問題還存在一些爭議,但是我認為,如果存儲過程中的邏輯可以約束返回數據的話(縮小數據集的大小、縮短網路上所花費時間,不必篩選邏輯層的數據),則應贊成這樣做。 使用 SqlCommand 實例及其 ExecuteReader 方法填充強類型的業務類時,可以通過調用 NextResult 將結果集指針向前移動。圖 1 顯示了使用類型類填充幾個 ArrayList 的示例會話。只從資料庫返回您需要的數據將進一步減少伺服器上的內存分配。 ================================== 技巧 2 — 分頁的數據訪問 ASP.NET DataGrid 具有一個很好的功能:數據分頁支持。在 DataGrid 中啟用分頁時,一次會顯示固定數量的記錄。另外,在 DataGrid 的底部還會顯示分頁 UI,以便在記錄之間進行導航。該分頁 UI 使您能夠在所顯示的數據之間向前和向後導航,並且一次顯示固定數量的記錄。 還有一個小小的波折。使用 DataGrid 的分頁需要所有數據均與網格進行綁定。例如,您的數據層需要返回所有數據,那麼 DataGrid 就會基於當前頁篩選顯示的所有記錄。如果通過 DataGrid 進行分頁時返回了 100,000 個記錄,那麼針對每個請求會放棄 99,975 個記錄(假設每頁大小為 25 個記錄)。當記錄的數量不斷增加時,應用程序的性能就會受到影響,因為針對每個請求必須發送越來越多的數據。 要編寫性能更好的分頁代碼,一個極佳的方式是使用存儲過程。圖 2 顯示了針對 Northwind 資料庫中的 Orders 表進行分頁的一個示例存儲過程。簡而言之,您此時要做的只是傳遞頁索引和頁大小。然後就會計算合適的結果集,並將其返回。 在社區伺服器中,我們編寫了一個分頁伺服器控制項,以完成所有的數據分頁。您將會看到,我使用的就是技巧 1 中討論的理念,從一個存儲過程返回兩個結果集:記錄的總數和請求的數據。 返回記錄的總數可能會根據所執行查詢的不同而有所變化。例如,WHERE 子句可用來約束返回的數據。為了計算在分頁 UI 中顯示的總頁數,必須了解要返回記錄的總數。例如,如果總共有 1,000,000 條記錄,並且要使用一個 WHERE 子句將其篩選為 1000 條記錄,那麼分頁邏輯就需要了解記錄的總數才能正確呈現分頁 UI。 ============================== 技巧 3 — 連接池 在 Web 應用程序和 SQL Server™ 之間設置 TCP 連接可能是一個非常消耗資源的操作。Microsoft 的開發人員到目前為止能夠使用連接池已經有一段時間了,這使得他們能夠重用資料庫連接。他們不是針對每個請求都設置一個新的 TCP 連接,而是只在連接池中沒有任何連接時才設置新連接。當連接關閉時,它會返回連接池,在其中它會保持與資料庫的連接,而不是完全破壞該 TCP 連接。 當然,您需要小心是否會出現泄漏連接。當您完成使用連接時,請一定要關閉這些連接。再重復一遍:無論任何人對 Microsoft?.NET Framework 中的垃圾回收有什麼評論,請一定要在完成使用連接時針對該連接顯式調用 Close 或 Dispose。不要相信公共語言運行庫 (CLR) 會在預先確定的時間為您清除和關閉連接。盡管 CLR 最終會破壞該類,並強制連接關閉,但是當針對對象的垃圾回收真正發生時,並不能保證。 要以最優化的方式使用連接池,需要遵守一些規則。首先打開連接,執行操作,然後關閉該連接。如果您必須如此的話,可以針對每個請求多次打開和關閉連接(最好應用技巧 1),但是不要一直將連接保持打開狀態並使用各種不同的方法對其進行進出傳遞。第二,使用相同的連接字元串(如果使用集成身份驗證的話,還要使用相同的線程標識)。如果不使用相同的連接字元串,例如根據登錄的用戶自定義連接字元串,那麼您將無法得到連接池提供的同一個優化值。如果您使用集成身份驗證,同時還要模擬大量用戶,連接池的效率也會大大下降。嘗試跟蹤與連接池相關的任何性能問題時,.NET CLR 數據性能計數器可能非常有用。 每當應用程序連接資源時,如在另一個進程中運行的資料庫,您都應該重點考慮連接該資源所花時間、發送或檢索數據所花時間,以及往返的數量,從而進行優化。優化應用程序中任何種類的進程跳躍都是獲得更佳性能的首要一點。 應用層包含了連接數據層、將數據轉換為有意義類實例和業務流程的邏輯。例如社區伺服器,您要在其中填充Forums 或 Threads集合,應用業務規則(如許可權);最重要的是要在其中執行緩存邏輯。 ================================ 技巧 4 — ASP.NET 緩存 API 編寫應用程序代碼行之前,一個首要完成的操作是設計應用層的結構,以便最大化利用 ASP.NET 緩存功能。 如果您的組件要在 ASP.NET 應用程序中運行,則只需在該應用程序項目中包括一個 System.Web.dll 引用。當您需要訪問該緩存時,請使用 HttpRuntime.Cache 屬性(通過 Page.Cache 和 HttpContext.Cache 也可訪問這個對象)。 對於緩存數據,有幾個規則。首先,如果數據可能會多次使用時,則這是使用緩存的一個很好的備選情況。第二,如果數據是通用的,而不特定於某個具體的請求或用戶時,則也是使用緩存的一個很好的備選情況。如果數據是特定於用戶或請求的,但是壽命較長的話,仍然可以對其進行緩存,但是這種情況可能並不經常使用。第三,一個經常被忽略的規則是,有時可能您緩存得太多。通常在一個 x86 計算機上,為了減少內存不足錯誤出現的機會,您會想使用不高於 800MB 的專用位元組運行進程。因此緩存應該有個限度。換句話說,您可能能夠重用某個計算結果,但是如果該計算採用 10 個參數的話,您可能要嘗試緩存 10 個排列,這樣有可能給您帶來麻煩。一個要求 ASP.NET 的最常見支持是由於過度緩存引起的內存不足錯誤,尤其是對於大型數據集。 圖 3 ASP.NET緩存 緩存有幾個極佳的功能,您需要對它們有所了解。首先,緩存會實現最近最少使用的演算法,使得 ASP.NET 能夠在內存運行效率較低的情況下強制緩存清除 - 從緩存自動刪除未使用過的項目。第二,緩存支持可以強制失效的過期依賴項。這些依賴項包括時間、密鑰和文件。時間經常會用到,但是對於 ASP.NET 2.0,引入了一個功能更強的新失效類型:資料庫緩存失效。它指的是當資料庫中的數據發生變化時自動刪除緩存中的項。有關資料庫緩存失效的詳細信息,請參閱 MSDN?Magazine 2004 年 7 月的 Dino Esposito Cutting Edge 專欄。要了解緩存的體系結構,請參閱圖 3。 ======================= 技巧 5 — 每請求緩存 在本文前面部分,我提到了經常遍歷代碼路徑的一些小改善可能會導致較大的整體性能收益。對於這些小改善,其中有一個絕對是我的最愛,我將其稱之為「每請求緩存」。 緩存 API 的設計目的是為了將數據緩存較長的一段時間,或者緩存至滿足某些條件時,但每請求緩存則意味著只將數據緩存為該請求的持續時間。對於每個請求,要經常訪問某個特定的代碼路徑,但是數據卻只需提取、應用、修改或更新一次。這聽起來有些理論化,那麼我們來舉一個具體的示例。 在社區伺服器的論壇應用程序中,頁面上使用的每個伺服器控制項都需要個性化的數據來確定使用什麼外觀、使用什麼樣式表,以及其他個性化數據。這些數據中有些可以長期緩存,但是有些數據卻只針對每個請求提取一次,然後在執行該請求期間對其重用多次,如要用於控制項的外觀。 為了達到每請求緩存,請使用 ASP.NET HttpContext。對於每個請求,都會創建一個 HttpContext 實例,在該請求期間從 HttpContext.Current 屬性的任何位置都可訪問該實例。該 HttpContext 類具有一個特殊的 Items 集合屬性;添加到此 Items 集合的對象和數據只在該請求持續期間內進行緩存。正如您可以使用緩存來存儲經常訪問的數據一樣,您也可以使用 HttpContext.Items 來存儲只基於每個請求使用的數據。它背後的邏輯非常簡單:數據在它不存在的時候添加到 HttpContext.Items 集合,在後來的查找中,只是返回 HttpContext.Items 中的數據。 ===================== 技巧 6 — 後台處理 通往代碼的路徑應該盡可能快速,是嗎?可能有時您會覺得針對每個請求執行的或者每 n 個請求執行一次的任務所需資源非常多。發送電子郵件或者分析和驗證傳入數據就是這樣的一些例子。 剖析 ASP.NET Forums 1.0 並重新構建組成社區伺服器的內容時,我們發現添加新張貼的代碼路徑非常慢。每次添加新張貼時,應用程序首先需要確保沒有重復的張貼,然後必須使用「壞詞」篩選器分析該張貼,分析張貼的字元圖釋,對張貼添加標記並進行索引,請求時將張貼添加到合適的隊列,驗證附件,最終張貼之後,立即向所有訂閱者發出電子郵件通知。很清楚,這涉及很多操作。 經研究發現,大多數時間都花在了索引邏輯和發送電子郵件上。對張貼進行索引是一個非常耗時的操作,人們發現內置的 System.Web.Mail 功能要連接 SMYP 伺服器,然後連續發送電子郵件。當某個特定張貼或主題領域的訂閱者數量增加時,執行 AddPost 功能所需的時間也越來越長。 並不需要針對每個請求都進行電子郵件索引。理想情況下,我們想要將此操作進行批處理,一次索引 25 個張貼或者每五分鍾發送一次所有電子郵件。我們決定使用以前用於對數據緩存失效進行原型設計的代碼,這個失效是用於最終進入 Visual Studio® 2005 的內容的。 System.Threading 命名空間中的 Timer 類非常有用,但是在 .NET Framework 中不是很有名,至少對於 Web 開發人員來說是這樣。創建之後,這個 Timer 類將以一個可配置的間隔針對 ThreadPool 中的某個線程調用指定的回調。這就表示,您可以對代碼進行設置,使其能夠在沒有對 ASP.NET 應用程序進行傳入請求的情況下得以執行,這是後台處理的理想情況。您還可以在此後台進程中執行如索引或發送電子郵件之類的操作。 但是,這一技術有幾個問題。如果應用程序域卸載,該計時器實例將停止觸發其事件。另外,因為 CLR 對於每個進程的線程數量具有一個硬性標准,所以可能會出現這樣的情形:伺服器負載很重,其中計時器可能沒有可在其基礎上得以完成的線程,在某種程度上可能會造成延遲。ASP.NET 通過在進程中保留一定數量的可用線程,並且僅使用匯流排程的一部分用於請求處理,試圖將上述情況發生的機會降到最低。但是,如果您具有很多非同步操作時,這可能就是一個問題了。 這里沒有足夠的空間來放置該代碼,但是您可以下載一個可以看懂的示例,網址是 。請了解一下 Blackbelt TechEd 2004 演示中的幻燈片和演示。 ========================= 技巧 7 — 頁輸出緩存和代理伺服器 ASP.NET 是您的表示層(或者說應該是您的表示層);它由頁、用戶控制項、伺服器控制項(HttpHandlers 和 HttpMoles)以及它們生成的內容組成。如果您具有一個 ASP.NET 頁,它會生成輸出(HTML、XML、圖像或任何其他數據),並且您針對每個請求運行此代碼時,它都會生成相同的輸出,那麼您就擁有一個可用於頁輸出緩存的絕佳備選內容。 將此行內容添加頁的最上端 <%@ Page OutputCache VaryByParams="none" Duration="60" %> 就可以高效地為此頁生成一次輸出,然後對它進行多次重用,時間最長為 60 秒,此時該頁將重新執行,輸出也將再一次添加到 ASP.NET 緩存。通過使用一些低級程序化 API 也可以完成此行為。對於輸出緩存有幾個可配置的設置,如剛剛講到的 VaryByParams 屬性。VaryByParams 剛好被請求到,但還允許您指定 HTTP GET 或 HTTP POST 參數來更改緩存項。例如,只需設置 VaryByParam="Report" 即可對 default.aspx?Report=1 或 default.aspx?Report=2 進行輸出緩存。通過指定一個以分號分隔的列表,還可以指定其他參數。 很多人都不知道何時使用輸出緩存,ASP.NET 頁還會生成一些位於緩存伺服器下游的 HTTP 標頭,如 Microsoft Internet Security and Acceleration Server 或 Akamai 使用的標頭。設置了 HTTP 緩存標頭之後,可以在這些網路資源上對文檔進行緩存,客戶端請求也可在不必返回原始伺服器的情況下得以滿足。 因此,使用頁輸出緩存不會使得您的應用程序效率更高,但是它可能會減少伺服器上的負載,因為下游緩存技術會緩存文檔。當然,這可能只是匿名內容;一旦它成為下游之後,您就再也不會看到這些請求,並且再也無法執行身份驗證以阻止對它的訪問了。 ======================== 技巧 8 — 運行 IIS 6.0(只要用於內核緩存) 如果您未運行 IIS 6.0 (Windows Server? 2003),那麼您就錯過了 Microsoft Web 伺服器中的一些很好的性能增強。在技巧 7 中,我討論了輸出緩存。在 IIS 5.0 中,請求是通過 IIS 然後進入 ASP.NET 的。涉及到緩存時,ASP.NET 中的 HttpMole 會接收該請求,並返回緩存中的內容。 如果您正在使用 IIS 6.0,就會發現一個很好的小功能,稱為內核緩存,它不需要對 ASP.NET 進行任何代碼更改。當請求由 ASP.NET 進行輸出緩存時,IIS 內核緩存會接收緩存數據的一個副本。當請求來自網路驅動程序時,內核級別的驅動程序(無上下文切換到用戶模式)就會接收該請求,如果經過了緩存,則會將緩存的數據刷新到響應,然後完成執行。這就表示,當您將內核模式緩存與 IIS 和 ASP.NET 輸出緩存一起使用時,就會看到令人不敢相信的性能結果。在 ASP.NET 的 Visual Studio 2005 開發過程中,我一度是負責 ASP.NET 性能的程序經理。開發人員完成具體工作,但是我要看到每天進行的所有報告。內核模式緩存結果總是最有意思的。最常見的特徵是網路充滿了請求/響應,而 IIS 運行時的 CPU 使用率只有大約 5%。這太令人震驚了!當然使用 IIS 6.0 還有一些其他原因,但是內核模式緩存是其中最明顯的一個。 =========================== 技巧 9 — 使用 Gzip 壓縮 雖然使用 gzip 並不一定是伺服器性能技巧(因為您可能會看到 CPU 使用率的提高),但是使用 gzip 壓縮可以減少伺服器發送的位元組數量。這就使人們覺得頁速度加快了,並且還減少了帶寬的用量。根據所發送數據、可以壓縮的程度以及客戶端瀏覽器是否支持(IIS 只會向支持 gzip 壓縮的客戶端發送經過 gzip 壓縮的內容,如 Internet Explorer 6.0 和 Firefox),您的伺服器每秒可以服務於更多的請求。實際上,幾乎每當您減少所返回數據的數量時,都會增加每秒請求數。 Gzip 壓縮已經內置到 IIS 6.0 中,並且其性能比 IIS 5.0 中使用的 gzip 壓縮要好的多,這是好消息。但不幸的是,當嘗試在 IIS 6.0 中打開 gzip 壓縮時,您可能無法在 IIS 的屬性對話中找到該設置。IIS 小組在該伺服器中置入了卓越的 gzip 功能,但是忘了包括一個用於啟用該功能的管理 UI。要啟用 gzip 壓縮,您必須深入到 IIS 6.0 的 XML 配置設置內部(這樣不會引起心臟虛弱)。順便提一句,這歸功於 OrcsWeb 的 Scott Forsyth,他幫助我提出了在 OrcsWeb 上宿主的 伺服器的這個問題。 本文就不講述步驟了,請閱讀 Brad Wilson 的文章,網址是 IIS6 Compression。還有一篇有關為 ASPX 啟用壓縮的知識庫文章,網址是 Enable ASPX Compression in IIS。但是您應該注意,由於一些實施細節,IIS 6.0 中不能同時存在動態壓縮和內核緩存。 ============================== 技巧 10 — 伺服器控制項視圖狀態 視圖狀態是一個有趣的名稱,用於表示在所生成頁的隱藏輸出欄位中存儲一些狀態數據的 ASP.NET。當該頁張貼回伺服器時,伺服器可以分析、驗證、並將此視圖狀態數據應用回該頁的控制項樹。視圖狀態是一個非常強大的功能,因為它允許狀態與客戶端一起保持,並且它不需要 cookie 或伺服器內存即可保存此狀態。很多 ASP.NET 伺服器控制項都使用視圖狀態來保持在與頁元素進行交互期間創建的設置,例如保存對數據進行分頁時顯示的當前頁。 然而使用視圖狀態也有一些缺點。首先,服務或請求頁時,它都會增加頁的總負載。對張貼回伺服器的視圖狀態數據進行序列化或取消序列化時,也會發生額外的開銷。最後,視圖狀態會增加伺服器上的內存分配。 幾個伺服器控制項有著過度使用視圖狀態的趨勢,即使在並不需要的情況下也要使用它,其中最著名的是 DataGrid。ViewState 屬性的默認行為是啟用,但是如果您不需要,則可以在控制項或頁級別關閉。在控制項內,只需將 EnableViewState 屬性設置為 false,或者在頁中使用下列設置即可對其進行全局設置: <%@ Page EnableViewState="false" %> 如果您不回發頁,或者總是針對每個請求重新生成頁上的控制項,則應該在頁級別禁用視圖狀態。 ============================== 小結 我為您講述了一些我認為在編寫高性能 ASP.NET 應用程序時有所幫助的技巧。正如我在本文前面部分提到的那樣,這是一個初步指南,並不是 ASP.NET 性能的最後結果。(有關改善 ASP.NET 應用程序性能的信息,請參閱 Improving ASP.NET Performance。)只有通過自己的親身體驗才能找出解決具體性能問題的最好方法。但是,在您的旅程中,這些技巧應該會為您提供一些好的指南。在軟體開發中,幾乎沒有絕對的東西;每個應用程序都是唯一的。 請參閱提要欄「Common Performance Myths」。 Rob Howard 是 Telligent Systems 的創始人,專門從事高性能 Web 應用程序、知識庫管理和協作系統方面的工作。Rob 以前受雇於 Microsoft,他在那裡幫助設計了 ASP.NET 1.0、1.1 和 2.0 的基礎結構。要聯系 Rob,請訪問 [email protected]。
⑺ 內容管理系統的詳細介紹
從企事業單位信息化的觀點來看,以下因素導致對內容管理軟體的巨大需求:
(1) 知識是企業的財富。在Internet交互過程中,只有十分之一涉及銷售,其他十分之九都和信息交互有關,員工的知識獲取越來越依賴於互聯網,特別是在電子商務的個性化環境中,客戶為了做出購買決定,需要智能化地獲取信息,不僅僅是商品的數量和價格,更重要的可能是產品的手冊、安全保證、技術指標、售後服務、圖片文件等等。
(2) 信息的及時性和准確性。無論在企業內網還是外網,信息的更新越來越快,企事業單位的信息生產量越來越多,且呈現成倍增長的趨勢,企事業單位更需要的是一個功能強大、可擴展的、靈活的內容管理技術來滿足不斷的信息更新、維護,這時如何保證信息的准確性和真實性將越來越顯得重要。
(3) 企業內外網統一的需求增長。隨著企事業單位信息化的建設,內聯網和外聯網之間的信息交互越來越多,優秀的內容管理系統對企業內部來說,能夠很好地做到信息的收集和重復利用以及信息的增值利用, 對於外聯網來說,更重要的是真正互動式和協作性的內容。
國外從事內容管理軟體研發的主要廠商包括Vignette,Interwoven, BroadVision, Openmarket,ATG, Allaire, Documentum, Hummingbird等,這些公司CM產品和解決方案專業性很強,大多基於J2EE等平台,功能豐富,主要面向企業級用戶,是CM市場的主要廠商。還有一些更窄的專業廠商提供內容管理某個階段需要的功能,如Verity 提供知識檢索,Micromedia 提供內容創作平台,Akamai和Inkitomi 提供內容分發管理技術等。與此相反,Microsoft, IBM, Oracle等公司提供通用平台性CM解決方案。但是目前CM市場仍有很多不完善的地方,包括:
在這個全新的市場中很難找到一個CMS滿足用戶的所有需求。
有些CMS只是單純的信息發布工具而以,稱不上內容的收集和再利用更談不上知識管理的概念,最多隻是一組網站建設工具軟體而已。
所有產品的可視鏈接都非常差,只有極少數廠商能夠提供可視軟體,這些軟體都不是互動式的,不能用作管理工具。 隱藏在內容管理系統(CMS)之後的基本思想是分離內容的管理和設計。頁面設計存儲在模板里,而內容存儲在資料庫或獨立的文件中。 當一個用戶請求頁面時,各部分聯合生成一個標準的 HTML 頁面。
一個內容管理系統通常有如下要素:
文檔模板
腳本語言或標記語言
與資料庫集成
內容的包含物由內嵌入頁面的特殊標記控制。這些標記對於一個內容管理系統通常是唯一的。 這些系統通常有對較復雜的操作的語言支持,如 Python, Perl, 或 Java 等。
內容管理系統對站點管理和創造編輯都有好處。這其中最大的好處是能夠使用模板和通用的設計元素以確保整個網站的協調。 作者只需在他們的文檔中採用少量的模板代碼,然後即可把精力集中在設計之上的內容了。要改變網站的外觀,管理員只需修改模板而不是一個個單獨的頁面。
內容管理系統也簡化了網站的內容供給和內容管理的責任委託。很多內容管理系統允許對網站的不同層面人員賦予不同等級的訪問許可權, 這使得他們不必研究操作系統級的許可權設置,只需用瀏覽器介面即可完成。
其他的特性如:搜索引擎、日歷、Web 郵件等也會內置於內容管理系統 CMS 內,或允許以第三方插件的形式集成進來。 內容管理系統是一個很泛的概念:從商業門戶網站的新聞系統到個人的Weblog都可以稱作發布系統。
框架型:本身不包含任何應用實現,只是提供了底層框架,具體應用需要一定的二次開發,比如Cocoon,Vignette;
應用型:本身是一個面向具體類型的應用實現,已經包含了新聞/評論管理,投票,論壇,WIKI等一些子系統。比如:postNuke xoops等;
但無論如何,在發布系統選型之前,首先了解自己的實際需求是最重要的:想根據現成系統將自己的需求硬往上照搬是非常不可取的。訪問量,許可權控制和各種功能需求。每個模塊和功能自己都比較清晰一點以後,再去網上找找類似的實現:你會發現其實每個環節到目前上都有比較成熟的實現了,而且還在不斷完善和發展中,如果沒有:你的需求太特殊,或者可以嘗試分解成更小的系統組合實現。
內容管理系統被分離成以下幾個層面:各個層面優先考慮的需求不同
1,後台業務子系統管理(管理優先:內容管理):新聞錄入系統,BBS論壇子系統,全文檢索子系統等,針對不同系統的方便管理者的內容錄入:所見即所得的編輯管理界面等,清晰的業務邏輯:各種子系統的許可權控制機制等;
2,Portal系統(表現優先:模板管理):大部分最終的輸出頁面:網站首頁,子頻道/專題頁,新聞詳情頁一般就是各種後檯子系統模塊的各種組合,這種發布組合邏輯是非常豐富的,Portal系統就是負責以上這些後檯子系統的組合表現管理;
3,前台發布(效率優先:發布管理):面向最終用戶的緩存發布,和搜索引擎spider的URL設計等……
內容管理和表現的分離:很多成套的CMS系統沒有把後台各種子系統和Portal分離開設計,以至於在Portal層的模板表現管理和新聞子系統的內容管理邏輯混合在一起,甚至和BBS等子系統的管理都耦合的非常高,整個系統會顯得非常龐雜。而且這樣的系統各個子系統捆綁的比較死,結果後台的模塊很難改變。但是如果把後台各種子系統內容管理邏輯和前台的表現/發布分離後,Portal和後台各個子系統之間只是數據傳遞的關系:Portal只決定後台各個子系統數據的取捨和表現,而後台的各個子系統也都非常容易插拔。
內容管理和數據分發的分離:需要要Portal系統設計的時候注意可緩存性(Cache Friendly)性設計:CMS後台管理和發布機制,本身不要過多考慮"效率"問題,只要最終頁面輸出設計的比較Cacheable,效率問題可通過更前端專門的緩存伺服器解決。
此外,就是除了面向最終瀏覽器用戶外,還要注意麵向搜索引擎友好(Search engine Friendly)的URL設計:通過 URL REWRITE轉向或基於PATH_INFO的參數解析使得動態網頁在鏈接(URI)形式上更像靜態的目錄結構,方便網站內容被搜索引擎收錄。
⑻ CDN是什麼
CDN是內容分發網路。
CDN的全稱是Content Delivery Network,即內容分發網路。CDN是構建在現有網路基礎之上的智能虛擬網路,依靠部署在各地的邊緣伺服器。
通過中心平台的負載均衡、內容分發、調度等功能模塊,使用戶就近獲取所需內容,降低網路擁塞,提高用戶訪問響應速度和命中率。CDN的關鍵技術主要有內容存儲和分發技術。
(8)akamai改web爬蟲管理擴展閱讀:
CDN的基本原理是廣泛採用各種緩存伺服器,將這些緩存伺服器分布到用戶訪問相對集中的地區或網路中,在用戶訪問網站時,利用全局負載技術將用戶的訪問指向距離最近的工作正常的緩存伺服器上,由緩存伺服器直接響應用戶請求。
CDN的基本思路是盡可能避開互聯網上有可能影響數據傳輸速度和穩定性的瓶頸和環節,使內容傳輸的更快、更穩定。
通過在網路各處放置節點伺服器所構成的在現有的互聯網基礎之上的一層智能虛擬網路,CDN系統能夠實時地根據網路流量和各節點的連接。
⑼ web是什麼
web,全稱為World Wide Web,是全球廣域網的簡稱,也稱為萬維網,是一種基於超文本和HTTP的、全球性的、動態交互的、跨平台的分布式圖形信息系統。
表現形式
1、超文本(Hyper text)
超文本是一種用戶介面方式,用以顯示文本及與文本相關的內容。現時超文本普遍以電子文檔的方式存在,其中的文字包含有可以鏈接到其他欄位或者文檔的超文本鏈接,允許從當前閱讀位置直接切換到超文本鏈接所指向的文字。
2、超媒體(hypermedia)
超媒體是超級媒體的簡稱。是超文本(hypertext)和多媒體在信息瀏覽環境下的結合。用戶不僅能從一個文本跳到另一個文本,而且可以激活一段聲音,顯示一個圖形,甚至可以播放一段動畫。
3、超文本傳輸協議(HTTP,HyperText Transfer Protocol)
超文本傳輸協議是互聯網上應用最為廣泛的一種網路協議。
(9)akamai改web爬蟲管理擴展閱讀:
萬維網使得全世界的人們以史無前例的巨大規模相互交流。相距遙遠的人們,甚至是不同年代的人們可以通過網路來發展親密的關系或者使彼此思想境界得到升華,甚至改變他們對待小事的態度以及精神。情感經歷、政治觀點、文化習慣、表達方式、商業建議、藝術、攝影、文學都可以以人類歷史上從來沒有過的低投入實現數據共享。
盡管使用萬維網仍然要依靠於存在自身缺陷的物化的工具,但至少它的信息保存方式不是使用人們熟悉的方式如圖書館、出版物那樣實在的東西。因此信息傳播是經由萬維網和英特網來實現,而無須被搬運具體的書卷,或者手工的或實物的復制而限制。而且數字儲存方式的優點是,你可以比查閱圖書館或者實在的書籍更容易有效率地查詢網路上的信息資源。