當前位置:首頁 » 編程語言 » sql數據挖掘怎麼預處理
擴展閱讀
webinf下怎麼引入js 2023-08-31 21:54:13
堡壘機怎麼打開web 2023-08-31 21:54:11

sql數據挖掘怎麼預處理

發布時間: 2022-05-26 13:19:02

㈠ 數據挖掘中的數據預處理技術有哪些,它們分別適用於哪些場合

一、數據挖掘工具分類數據挖掘工具根據其適用的范圍分為兩類:專用挖掘工具和通用挖掘工具。專用數據挖掘工具是針對某個特定領域的問題提供解決方案,在涉及演算法的時候充分考慮了數據、需求的特殊性,並作了優化。對任何領域,都可以開發特定的數據挖掘工具。例如,IBM公司的AdvancedScout系統針對NBA的數據,幫助教練優化戰術組合。特定領域的數據挖掘工具針對性比較強,只能用於一種應用;也正因為針對性強,往往採用特殊的演算法,可以處理特殊的數據,實現特殊的目的,發現的知識可靠度也比較高。通用數據挖掘工具不區分具體數據的含義,採用通用的挖掘演算法,處理常見的數據類型。通用的數據挖掘工具不區分具體數據的含義,採用通用的挖掘演算法,處理常見的數據類型。例如,IBM公司Almaden研究中心開發的QUEST系統,SGI公司開發的MineSet系統,加拿大SimonFraser大學開發的DBMiner系統。通用的數據挖掘工具可以做多種模式的挖掘,挖掘什麼、用什麼來挖掘都由用戶根據自己的應用來選擇。二、數據挖掘工具選擇需要考慮的問題數據挖掘是一個過程,只有將數據挖掘工具提供的技術和實施經驗與企業的業務邏輯和需求緊密結合,並在實施的過程中不斷的磨合,才能取得成功,因此我們在選擇數據挖掘工具的時候,要全面考慮多方面的因素,主要包括以下幾點:(1)可產生的模式種類的數量:分類,聚類,關聯等(2)解決復雜問題的能力(3)操作性能(4)數據存取能力(5)和其他產品的介面三、數據挖掘工具介紹:1.QUESTQUEST是IBM公司Almaden研究中心開發的一個多任務數據挖掘系統,目的是為新一代決策支持系統的應用開發提供高效的數據開采基本構件。系統具有如下特點:提供了專門在大型資料庫上進行各種開採的功能:關聯規則發現、序列模式發現、時間序列聚類、決策樹分類、遞增式主動開采等。各種開采演算法具有近似線性計算復雜度,可適用於任意大小的資料庫。演算法具有找全性,即能將所有滿足指定類型的模式全部尋找出來。為各種發現功能設計了相應的並行演算法。2.MineSetMineSet是由SGI公司和美國Standford大學聯合開發的多任務數據挖掘系統。MineSet集成多種數據挖掘演算法和可視化工具,幫助用戶直觀地、實時地發掘、理解大量數據背後的知識。MineSet有如下特點:MineSet以先進的可視化顯示方法聞名於世。支持多種關系資料庫。可以直接從Oracle、Informix、Sybase的表讀取數據,也可以通過sql命令執行查詢。多種數據轉換功能。在進行挖掘前,MineSet可以去除不必要的數據項,統計、集合、分組數據,轉換數據類型,構造表達式由已有數據項生成新的數據項,對數據采樣等。操作簡單、支持國際字元、可以直接發布到Web。3.DBMinerDBMiner是加拿大SimonFraser大學開發的一個多任務數據挖掘系統,它的前身是DBLearn。該系統設計的目的是把關系資料庫和數據開採集成在一起,以面向屬性的多級概念為基礎發現各種知識。DBMiner系統具有如下特色:能完成多種知識的發現:泛化規則、特性規則、關聯規則、分類規則、演化知識、偏離知識等。綜合了多種數據開采技術:面向屬性的歸納、統計分析、逐級深化發現多級規則、元規則引導發現等方法。提出了一種互動式的類SQL語言——數據開采查詢語言DMQL。能與關系資料庫平滑集成。實現了基於客戶/伺服器體系結構的Unix和PC(Windows/NT)版本的系統。4.IntelligentMiner由美國IBM公司開發的數據挖掘軟體IntelligentMiner是一種分別面向資料庫和文本信息進行數據挖掘的軟體系列,它包括IntelligentMinerforData和IntelligentMinerforText。IntelligentMinerforData可以挖掘包含在資料庫、數據倉庫和數據中心中的隱含信息,幫助用戶利用傳統資料庫或普通文件中的結構化數據進行數據挖掘。它已經成功應用於市場分析、詐騙行為監測及客戶聯系管理等;IntelligentMinerforText允許企業從文本信息進行數據挖掘,文本數據源可以是文本文件、Web頁面、電子郵件、LotusNotes資料庫等等。5.SASEnterpriseMiner這是一種在我國的企業中得到採用的數據挖掘工具,比較典型的包括上海寶鋼配礦系統應用和鐵路部門在春運客運研究中的應用。SASEnterpriseMiner是一種通用的數據挖掘工具,按照"抽樣--探索--轉換--建模--評估"的方法進行數據挖掘。可以與SAS數據倉庫和OLAP集成,實現從提出數據、抓住數據到得到解答的"端到端"知識發現。6.SPSSClementineSPSSClementine是一個開放式數據挖掘工具,曾兩次獲得英國政府SMART創新獎,它不但支持整個數據挖掘流程,從數據獲取、轉化、建模、評估到最終部署的全部過程,還支持數據挖掘的行業標准--CRISP-DM。Clementine的可視化數據挖掘使得"思路"分析成為可能,即將集中精力在要解決的問題本身,而不是局限於完成一些技術性工作(比如編寫代碼)。提供了多種圖形化技術,有助理解數據間的關鍵性聯系,指導用戶以最便捷的途徑找到問題的最終解決法。7.資料庫廠商集成的挖掘工具SQLServer2000包含由Microsoft研究院開發的兩種數據挖掘演算法:Microsoft決策樹和Microsoft聚集。此外,SQLServer2000中的數據挖掘支持由第三方開發的演算法。Microsoft決策樹演算法:該演算法基於分類。演算法建立一個決策樹,用於按照事實數據表中的一些列來預測其他列的值。該演算法可以用於判斷最傾向於單擊特定標題(banner)或從某電子商務網站購買特定商品的個人。Microsoft聚集演算法:該演算法將記錄組合到可以表示類似的、可預測的特徵的聚集中。通常這些特徵可能是隱含或非直觀的。例如,聚集演算法可以用於將潛在汽車買主分組,並創建對應於每個汽車購買群體的營銷活動。,SQLServer2005在數據挖掘方面提供了更為豐富的模型、工具以及擴展空間。包括:可視化的數據挖掘工具與導航、8種數據挖掘演算法集成、DMX、XML/A、第三方演算法嵌入支持等等。OracleDataMining(ODM)是Oracle資料庫10g企業版的一個選件,它使公司能夠從最大的資料庫中高效地提取信息並創建集成的商務智能應用程序。數據分析人員能夠發現那些隱藏在數據中的模式和內涵。應用程序開發人員能夠在整個機構范圍內快速自動提取和分發新的商務智能—預測、模式和發現。ODM針對以下數據挖掘問題為Oracle資料庫10g提供支持:分類、預測、回歸、聚類、關聯、屬性重要性、特性提取以及序列相似性搜索與分析(BLAST)。所有的建模、評分和元數據管理操作都是通過OracleDataMining客戶端以及PL/SQL或基於Java的API來訪問的,並且完全在關系資料庫內部進行。IBMIntelligentMiner通過其世界領先的獨有技術,例如典型數據集自動生成、關聯發現、序列規律發現、概念性分類和可視化呈現,它可以自動實現數據選擇、數據轉換、數據發掘和結果呈現這一整套數據發掘操作。若有必要,對結果數據集還可以重復這一過程,直至得到滿意結果為止。現在,IBM的IntelligentMiner已形成系列,它幫助用戶從企業數據資產中識別和提煉有價值的信息。它包括分析軟體工具----IntelligentMinerforData和IBMIntelligentMinerforText,幫助企業選取以前未知的、有效的、可行的業務知識----如客戶購買行為,隱藏的關系和新的趨勢,數據來源可以是大型資料庫和企業內部或Internet上的文本數據源。然後公司可以應用這些信息進行更好、更准確的決策,獲得競爭優勢。

㈡ sql server 2005怎麼進行數據挖掘

准備 Analysis Services 資料庫

在本課程中,您將學習如何創建新的 Analysis Services 資料庫,添加數據源和數據源視圖,以及准備將用於數據挖掘的新資料庫。

生成目標郵件方案

在本課程中,您將學習如何創建可用於目標郵件方案的挖掘模型。您還將學習如何利用挖掘模型,比較挖掘模型,以及如何根據使用下列演算法生成的挖掘模型創建預測:

Microsoft 決策樹
Microsoft 聚類分析
Microsoft Naive Bayes

生成預測方案

在本課程中,您將學習如何創建用於預測方案的挖掘模型,還將學習如何利用通過 Microsoft 時序演算法生成的挖掘模型。

生成市場籃方案

在本課程中,您將學習如何創建用於購物籃方案的挖掘模型,還將學習如何利用通過 Microsoft 關聯演算法生成的挖掘模型。

生成順序分析和聚類分析方案

在本課程中,您將學習如何創建用於順序分析和聚類分析方案的挖掘模型,還將學習如何利用通過 Microsoft 順序分析和聚類分析演算法生成的挖掘模型。

數據挖掘聚類分析圖

Microsoft 決策樹為 Adventure
Works DM 教程項目切換到數據挖掘設計器中的「挖掘模型查看器」選項卡時,該設計器將打開並顯示結構中的第一個模型,即目標郵件挖掘模型。用於在
Analysis Services 中生成模型的每種演算法將返回不同類型的結果。所以,Analysis Services
將為每個演算法提供單獨的查看器。瀏覽挖掘模型時,系統會使用該模型相應的查看器,在「挖掘模型查看器」選項卡上顯示該模型。在本例中,對於決策樹模型,使
用的是 Microsoft 樹查看器。此查看器包含兩個選項卡,即「決策樹」和「相關性網路」。

決策樹

在「決策樹」選項卡上,可以檢查構成挖掘模型的所有樹模型。由於本教程項目中的目標郵件模型僅包含單個可預測屬性 (Bike Buyer),所以只需查看一個樹。如果存在更多樹,則可以使用「樹」框來選擇其他樹。

㈢ 數據挖掘的基本步驟是什麼

數據輸入:輸入要發掘的數據。

數據轉化:做數據預處理的步驟,經過了數據轉化之後,數據就是一個可用的,簡練的、完整的、一致的、精確的數據集。

(1)數據清理:對雜訊數據和不一致的數據做鏟除操作。或者是對重復數據做刪除,或者是對缺失數據做填充(眾數、中位數、自己判斷)。

(2)數據集成:將多個數據源的數據做整合。

(3)數據選擇:選擇需要的數據做發掘。比如一個人買不買電腦和他叫什麼沒什麼聯系,所以就不需要輸入到機器中進行分析。

(4)數據改換:不同的數據被經過數據集成集成到一同的時分,就會出現一個問題,叫做實體辨認問題。那麼數據改換除了處理實體辨認問題以外,還需要一致不同的資料庫的數據的格局。

數據發掘:經過數學演算法對數據進行分析,得到數據之間的規則,或者是我們所需要的常識。

模型評價:評價機器獲得的模型是否不適用例如,假如模型是在機器學習後得到的,而且模型猜測的精度為10%。因而模型評價的很大一部分也是對從學習機器中獲得的常識是否准確和可用的評價。

數據輸出:將成果數據輸出,而且將得到的常識表明出來,對應了常識表明。

數據在進行發掘時,我們往往都是經過某些屬性得以判斷某個成果,這就是數據發掘的基本規則。

關於數據挖掘的基本步驟是什麼,青藤小編就和您分享到這里了。如果您對大數據工程有濃厚的興趣,希望這篇文章可以為您提供幫助。如果您還想了解更多關於數據分析師、大數據工程師的技巧及素材等內容,可以點擊本站的其他文章進行學習。

㈣ 數據挖掘數據預處理的關鍵技術有哪些

分箱方法是一種簡單常用的預處理方法,通過考察相鄰數據來確定最終值。所謂「分箱」,實際上就是按照屬性值劃分的子區間,如果一個屬性值處於某個子區間范圍內,就稱把該屬性值放進這個子區間所代表的「箱子」內。把待處理的數據(某列屬性值)按照一定的規則放進一些箱子中,考察每一個箱子中的數據,採用某種方法分別對各個箱子中的數據進行處理。在採用分箱技術時,需要確定的兩個主要問題就是:如何分箱以及如何對每個箱子中的數據進行平滑處理。

㈤ 數據挖掘之間為什麼對數據進行預處理

清洗掉不合理的數據,轉換為系統可以識別的格式,然後提交到資料庫中便於挖掘。

㈥ 什麼是數據挖掘數據挖掘怎麼做啊

數據挖掘(Data Mining)是指通過大量數據集進行分類的自動化過程,以通過數據分析來識別趨勢和模式,建立關系來解決業務問題。換句話說,數據挖掘是從大量的、不完全的、有雜訊的、模糊的、隨機的數據中提取隱含在其中的、人們事先不知道的、但又是潛在有用的信息和知識的過程。

原則上講,數據挖掘可以應用於任何類型的信息存儲庫及瞬態數據(如數據流),如資料庫、數據倉庫、數據集市、事務資料庫、空間資料庫(如地圖等)、工程設計數據(如建築設計等)、多媒體數據(文本、圖像、視頻、音頻)、網路、數據流、時間序列資料庫等。也正因如此,數據挖掘存在以下特點:

(1)數據集大且不完整
數據挖掘所需要的數據集是很大的,只有數據集越大,得到的規律才能越貼近於正確的實際的規律,結果也才越准確。除此以外,數據往往都是不完整的。

(2)不準確性
數據挖掘存在不準確性,主要是由雜訊數據造成的。比如在商業中用戶可能會提供假數據;在工廠環境中,正常的數據往往會收到電磁或者是輻射干擾,而出現超出正常值的情況。這些不正常的絕對不可能出現的數據,就叫做雜訊,它們會導致數據挖掘存在不準確性。

(3)模糊的和隨機的
數據挖掘是模糊的和隨機的。這里的模糊可以和不準確性相關聯。由於數據不準確導致只能在大體上對數據進行一個整體的觀察,或者由於涉及到隱私信息無法獲知到具體的一些內容,這個時候如果想要做相關的分析操作,就只能在大體上做一些分析,無法精確進行判斷。
而數據的隨機性有兩個解釋,一個是獲取的數據隨機;我們無法得知用戶填寫的到底是什麼內容。第二個是分析結果隨機。數據交給機器進行判斷和學習,那麼一切的操作都屬於是灰箱操作。

㈦ 在數據挖掘時為什麼要進行數據預處理

  • 數據中包含很多雜訊數據,需要去除不相關的數據,比如如分析無關的欄位

  • 了解數據質量,有些數據質量不足以直接使用,如包含過多的缺失值,需要進行缺失值處理

  • 數據欄位不能夠直接使用,需要派生新的欄位,以更好的進行進一步的數據挖掘

  • 數據分散,需要將數據進行整合,例如追加表(增加行),或者合並表(增加列)

  • 通過數據的預處理能夠很好的對數據有初步的認識和理解。

㈧ 數據挖掘 | 數據理解和預處理

數據挖掘 | 數據理解和預處理
小編遇到過很多人(咳咳,請不要對號入座),拿到數據後不管三七二十一,先丟到模型中去跑,管它具體什麼樣呢,反正「大數據」嘛,總能整出點東西來。
但就像上次說過的,「大數據」很有可能帶來「大錯誤」!所以在數據挖掘工作開始前,認真的理解數據、檢查數據,對數據進行預處理是至關重要的。
很多人說,數據准備工作真是個「體力活」,耗時耗力不說,還異常的枯燥無味。這點小編承認,建模之前的數據處理確實是平淡的,它往往不需要多高的智商,多牛的編程技巧,多麼高大上的統計模型。
但是,它卻能時時觸發你的興奮點,因為它需要足夠的耐心和細心,稍不留神就前功盡棄。
在這次的內容里,小編首先會從「數據理解」、「變數類型」和「質量檢查」三個方面進行闡述,然後會以一個自己做過的實際數據為例進行展示。
一、數據理解
拿到數據後要做的第一步就是理解數據。
什麼是理解數據呢?不是簡單看下有多少Excel表,有多少行,多少列,而是要結合自己的分析目標,帶著具體的業務需求去看。
首先,我們需要明確數據記錄的詳細程度,比方說某個網站的訪問量數據是以每小時為單位還是每天為單位;一份銷售數據記錄的是每家門店的銷售額還是每個地區的總銷售額。
其次,我們需要確定研究群體。研究群體的確定一定和業務目標是密切相關的。
比方說,如果我們想研究用戶對產品的滿意度與哪些因素有關,就應該把購買該產品的所有客戶作為研究群體;如果我們想研究用戶的購買行為受哪些因素影響,就應該同時考察購買人群和非購買人群,在兩類人群的對比中尋找關鍵因素。
研究群體的確定有時也和數據的詳細程度有關。
比如我們想研究「觀眾影評」對「電影票房」的影響,我們既可以把「每部電影」看成一個個體,研究「影評總數」對「電影總票房」的影響,也可以把「每部電影每天的票房」看成一個個體,研究「每天的影評數」對「每天的電影票房」的影響。
具體選擇哪一種取決於我們手上有什麼樣的數據,如果只有總票房和總影評數的數據,那我們只能選擇第一種;如果有更詳細的數據,那就可以考慮第二種方案。
需要注意的是,這兩種方案還會影響我們對於模型的選擇。
例如,如果研究「每天的影評數」對「每天電影票房」的影響,那每部電影又被細分為很多天,同一部電影不同時間的票房會有較高的相似性,這就形成了一種層次結構,可以考慮使用層次模型(hierarchical model)進行分析。
最後,當我們確定了研究目標和研究群體後,我們需要逐一理解每個變數的含義。有些變數和業務目標明顯無關,可以直接從研究中剔除。
有些變數雖然有意義,但是在全部樣本上取值都一樣,這樣的變數就是冗餘變數,也需要從研究中剔除。
還有一些變數具有重復的含義,如「省份名稱」和「省份簡稱」,這時只需要保留一個就可以了。
二、變數類型
所有變數按其測量尺度可以分成兩大類,一類是「分類變數」,一類是「數值變數」。不同類型的變數在處理方法和後期的模型選擇上會有顯著差別。
【分類變數】
分類變數又稱屬性變數或離散變數,它的取值往往用有限的幾個類別名稱就可以表示了,例如「性別」,「教育程度」,「收入水平」,「星期幾」等。細分的話,分類變數又可分為兩類,一類是「名義變數」,即各個類別間沒有順序和程度的差別,就像「手機系統」中ios和安卓並沒有明顯的好壞差別,「電影類型」中「動作片」和「科幻片」也都是一樣的,說不上哪個更好或更差。
另外一類是定序變數,即不同類別之間存在有意義的排序,如「空氣污染程度」可以用「差、良、優」來表示、「教育程度」可以用「小學、初中、高中、大學」來表示。
當研究的因變數是分類變數時,往往對應特定的分析方法,我們在後面的章節會陸續講到,這里暫且不談。
當研究中的自變數是分類變數時,也會限制模型選擇的范圍。有些數據挖掘模型可以直接處理分類自變數,如決策樹模型;但很多數據挖掘模型不能直接處理分類自變數,如線性回歸、神經網路等,因此需要將分類變數轉換成數值變數。
對於定序自變數,最常用的轉換方法就是按照類別程度將其直接轉換成數值自變數,例如將空氣污染程度 「差、良、優」轉換為「1,2,3」。
對於名義自變數,最常用的轉換方法就是構造0-1型啞變數。例如,對於「性別」,可以定義「1=男,0=女」。
當某個名義變數有K個類別取值時,則需要構造K-1個啞變數。例如教育程度「小學,初中,高中,大學及以上」,可以構造三個啞變數分別為:x1:1=小學,0=其它;x2:1=初中,0=其它;x3:1=高中,0=其它。當x1,x2,x3三個啞變數取值都為0時,則對應著「大學及以上」。
需要注意的是,有時候名義變數的取值太多,會生成太多的啞變數,這很容易造成模型的過度擬合。
這時可以考慮只把觀測比較多的幾個類別單獨拿出來,而把剩下所有的類別都歸為「其它」。
例如,中國一共包含56個民族,如果每個民族都生成一個啞變數就會有55個,這時我們可以只考慮設置「是否為漢族」這一個0-1啞變數。
【數值變數】
我們再來看看數值變數。數值變數就是用數值描述,並且可以直接進行代數運算的變數,如「銷售收入」、「固定資本」、「評論總數」、「訪問量」、「學生成績」等等都是數值變數。
需要注意的是,用數值表示的變數不一定就是數值型變數,只有在代數運算下有意義的變數才是數值型變數。
例如財務報表的年份,上市時間等,雖然也是用數值表示的,但我們通常不將它們按照數值型變數來處理。
上面我們講到,分類變數通常要轉換成數值型變數,其實有些時候,數值型變數也需要轉換成分類變數,這就用到了「數據分箱」的方法。
為什麼要進行數據分箱呢?通常有以下幾個原因:
1. 數據的測量可能存在一定誤差,沒有那麼准確,因此按照取值范圍轉換成不同類別是一個有效的平滑方法;
2.有些演算法,如決策樹模型,雖然可以處理數值型變數,但是當該變數有大量不重復的取值時,使用大於、小於、等於這些運算符時會考慮很多的情況,因此效率會很低,數據分箱的方法能很好的提高演算法效率;
3.有些模型演算法只能處理分類型自變數(如關聯規則),因此也需要將數值變數進行分箱處理。
數據分箱後,可以使用每個分箱內的均值、中位數、臨界值等作為這個類別的代表值,也可以直接將不同取值范圍定義成不同的類別,如:將污染程度劃分後定義為「低、中、高」等。
那如何進行數據分箱呢?常用的數據分箱的方法有:等寬分箱(將變數的取值范圍劃分成等寬的幾個區間)、等頻分箱(按照變數取值的分位數進行劃分)、基於k均值聚類的分箱(將所有數據進行k均值聚類,所得的不同類別即為不同的分箱),還有一些有監督分箱方法,如:使分箱後的結果達到最小熵或最小描述長度等。這里不詳細介紹了,有興趣的童鞋可以自行網路。
三、質量檢查
對數據中的各個變數有了初步了解後,我們還需要對數據進行嚴格的質量檢查,如果數據質量不過關,還需要進行數據的清洗或修補工作。
一般來說,質量檢查包括檢查每個變數的缺失程度以及取值范圍的合理性。
【缺失檢查】
原始數據中經常會存在各種各樣的缺失現象。
有些指標的缺失是合理的,例如顧客只有使用過某個產品才能對這個產品的滿意度進行評價,一筆貸款的抵押物中只有存在房地產,才會記錄相應的房地產的價值情況等。
像這種允許缺失的變數是最難搞的,因為我們很難判斷它的缺失是合理的,還是由於漏報造成的。
但無論哪種情況,如果變數的缺失率過高,都會影響數據的整體質量,因為數據所反映的信息實在太少,很難從中挖掘到有用的東西。
對於不允許缺失的變數來說,如果存在缺失情況,就必須進行相應的處理。如果一個變數的缺失程度非常大,比方說達到了70%,那就考慮直接踢掉吧,估計沒救了。
如果缺失比例還可以接受的話,可以嘗試用缺失值插補的方法進行補救。
插補的目的是使插補值能最大可能的接近其真實的取值,所以如果可以從其他途徑得到變數的真實值,那一定優先選擇這種方法。
比如某個公司的財務信息中缺失了「最終控制人類型」和「是否國家控股」這兩個取值,這些可以通過網上的公開信息得到真實值;再比如缺失了「凈利潤率」這個指標的取值,但是卻有「凈利潤」和「總收入」的取值,那就可以通過變數間的關系得到相應的缺失值,即凈利潤率=凈利潤/總收入。
當然,更多的時候,我們無法得到缺失值的真實信息,這時就只能借用已有的數據來進行插補了。
對數值變數來說,可以用已觀測值的均值、中位數來插補缺失值;對分類型變數來說,可以用已觀測數據中出現比例最高的類別取值來進行插補。
這些方法操作起來非常簡單,但它們都是對所有缺失值賦予了相同的取值,所以當缺失比例較大時,可能會扭曲被插補變數與其餘變數的關系。
更復雜一點的,我們可以選擇模型插補方法,即針對被插補變數和其它自變數之間的關系建立統計模型(如回歸、決策樹等),將模型預測值作為插補值。
如何處理缺失值是一個很大的研究課題,我們這里只是介紹了最簡單可行的方法,有興趣的讀者可以參閱Little和Rubin 2002年的專著「Statistical Analysis with Missing Data」。
【變數取值合理性檢查】
除了缺失外,我們還要考察每個變數的取值合理性。每個變數都會有自己的取值范圍,比如「用戶訪問量」、「下載次數」一定是非負的,「投資收益率」一定在0~1之間。通過判斷變數的取值是否超出它應有的取值范圍,可以簡單的對異常值進行甄別。
除了根據變數的取值范圍來檢查變數質量外,還可以根據變數之間的相互關系進行判斷。例如一家公司的「凈利潤率」不應該大於「總利潤率」等。
只有通過了各個方面檢測的數據才是一份高質量的數據,才有可能帶來有價值的模型結果。
四、實例分析——電影票房分析
最後,我們給出一個實例分析。在這個例子中,我們的目標是研究電影哪些方面的特徵對電影票房有影響。
我們有兩方面的數據,一是描述電影特徵的數據,二是描述電影票房的數據。
由於我們關注的是北美的票房市場,所以描述電影特徵的數據可以從IMDB網站得到,它是一個關於演員、電影、電視節目、電視明星和電影製作的在線資料庫,裡面可以找到每部上映電影的眾多信息;電影每天的票房數據可以從美國權威的票房網站Box Office Mojo得到,上面記錄了每部電影上映期間內每天的票房數據。
我們將從IMDB得到的數據放到「movieinfor.csv」文件中,將從Box Office Mojo中得到的數據放到「boxoffice.csv」文件中。
這里,我們以2012年北美票房市場最高的前100部電影為例進行講解。下表給出了這兩個數據集中包含的所有變數以及相應的解釋。
在這兩個數據中,movieinfor.csv數據的記錄是精確到每部電影的,而boxoffice.csv數據精確到了每部電影中每天的票房數據,是精確到天的。上表中給出的變數中,除了電影名稱和ID外,「電影類型」「MPAA評級」(美國電影協會對電影的評級)和「星期幾」是分類型變數;「放映時長」、「製作預算」、「電影每天的票房」和「每天放映的影院數」是數值型變數。兩份數據都不存在缺失值。
我們首先對兩個數據集分別進行變數預處理,然後再根據電影ID將兩個數據整合到一起。下面給出了每個變數的處理方法:
【電影類型】
電影類型是一個分類變數。在這個變數中我們發現每部電影都不止一個類型,例如「The Dark Knight Rises」這部電影就有「Action」、「Crime」和「Thriller」三個類型,並且它們以「|」為分隔符寫在了一起。
同時,不同電影之間可能有相同的類型,也可能有不同的類型,例如票房排名第二的電影「Skyfall」,它的類型是「Action |Adventure |Thriller」。
因此,我們首先需要做的是把每部電影所屬的類型逐一取出來,然後將所有出現過的類型分別形成一個0-1啞變數,如果這部電影在某個類型上出現了,則相應變數的取值就是1,否則是0.
通過上面一步,我們知道這個數據集中出現過的所有電影類型一共有11個。
那是不是按照之前所講的,應該把它轉換為10個啞變數呢?這里需要注意的是,所有的電影類型之間並不是互斥的(即有了action,就不能有其他的類型),所以我們無需因為共線性的原因去掉其中一個。
也就是說,如果把每一個電影類型單獨作為一個獨立的變數,可以衍生出11個新的0-1變數,這完全沒有問題。但11個變數未免有點過多,所以我們根據不同電影類型的頻數分布情況,只把出現次數明顯較多的類型單獨拿出來,最終生成了6個0-1型變數,分別為Adventure,Fantasy,Comedy,Action,Animation,Others。
【MPAA評級】
對於這個分類型變數,我們首先可以看一下數據中它所包含的全部取值,發現一共有「PG」,「PG-13」和「R」三個。
和上面的電影類型(Genre)不同,對於一部電影而言,它只能有一個MPAA取值。因此,在MPAA變數中,我們需要選擇一個作為基準,將另外兩個構造成啞變數。
例如,我們以「PG」為基準,構造的兩個啞變數分別為PG13和R,如果這兩個啞變數的取值同時為0,那就相當於電影的MPAA評級是PG。
【放映當天是星期幾】
這個變數同MPAA評級一樣,每部電影只能有一個取值。
如果它在星期一到星期日上都有取值的話,我們可以衍生出6個0-1型啞變數。
因為這里我們更關注周末和非周末對電影票房的影響,而並不關注具體是哪一天,所以我們將其進一步概括成一個變數,即「是否是周末」。
【放映時長和製作預算】
放映時長和製作預算這兩個變數都是取值大於0的數值型變數,我們可以分別檢查它們的取值是否在合理的范圍內,然後直接保留它們的數值信息。
同時,對「製作預算」而言,假設我們這里關心的不是製作預算的具體數值,而是「小成本電影」和「大成本電影」的票房差異,那我們就可以將這個數值型變數進行分箱處理,轉換為一個0-1型的分類變數,即 「是否為小成本電影」。
在決定按照什麼標准來劃分是否為小成本電影時,我們根據之前文獻里的研究結果,將製作預算在100 million以下的電影看成是小成本電影。
上述所有變數的處理過程都可以使用R中最基本的語句(table,rep,which等)完成,由於篇幅限制,小編這里就不列出詳細的code了,大家感興趣的話,可以閱讀狗熊會的「R語千尋」系列(戳這里),相信會在R語言的學習上受到更多啟發。
最後,我們將所有新生成的變數按照電影ID整合到一起,就大功告成啦。
五、總結
最後總結一下,小編在這次內容中向大家介紹了拿到數據後的數據理解和預處理工作,內容雖然不難,但同樣需要我們認真對待。就好像生活一樣,只有踏踏實實走好前面的路,才有可能迎接後面的高潮迭起!

㈨ 在數據挖掘之前為什麼要對原始數據進行預處理

1.原始數據存在的幾個問題:不一致;重復;含雜訊;維度高。
2.數據預處理包含數據清洗、數據集成、數據變換和數據歸約幾種方法。
3.在數據挖掘之前要對原始數據進行預處理是數據挖掘中使用的數據的原則。