1. 程式人生 > >資料探勘之標準流程

資料探勘之標準流程

1.Crisp-DM標準流程

商業理解——資料理解——資料準備——Modeling(建模)——評價——執行

商業理解:(1)決定工作的目的 (2)資料探勘目的評價 (3)狀況評價 (4)樹立專案計劃

資料理解:(1)初步收集資料 (2)資料探索 (3)資料技術 (4)檢驗資料質量

資料準備:(1)資料設定 (2)資料生成/清洗/綜合 (3)資料選擇 (4)適用的資料形式

Modeling(建模):(1)Modeling方法選擇 (2)生成模型 (3)生成測試設計 (4)模型評價

評價:(1)結果評價 (2)後續階段檢驗 (2)過程再檢驗

執行:(1)樹立執行計劃 (2)樹立調控/維持計劃 (3)編寫最終報告書 (4)專案再檢驗

2.從挖掘師的角度看挖掘


(1)(4)反映的是挖掘師的溝通和表達能力 ;

(2)(3)反映的是挖掘師的理解和建模能力。

相關推薦

資料標準流程

1.Crisp-DM標準流程 商業理解——資料理解——資料準備——Modeling(建模)——評價——執行 商業理解:(1)決定工作的目的 (2)資料探勘目的評價 (3)狀況評價 (4)樹立專案計劃 資料理解:(1)初步收集資料 (2)資料探索 (3)資料技術 (4)檢驗資

資料售房資料分析1

最近再做一批關於售房的資料,感覺自己陷入一個死衚衕裡: 該批資料是儲存再postgresql裡面,是從某售房網站上爬下來的,以資料庫中的一列欄位作為儲存資料,該列欄位是以json的資料形式儲存的,這裡跟我打開了一個新大門,資料庫能儲存json資料格式的資料,而且postgresql還有一套專門的

資料十大經典演算法

國際權威的學術組織the IEEE International Conference on Data Mining (ICDM) 2006年12月評選出了資料探勘領域的十大經典演算法:C4.5, k-Means, SVM, Apriori, EM, PageRank, AdaBoost, k

資料FP_Tree演算法實現

轉自http://www.cnblogs.com/zhangchaoyang/articles/2198946.html (格式複製之後有變化,建議直接點連結去部落格園看原文) python程式碼見https://github.com/yantijin/Lean_DataMining F

資料AdaBoost裝袋提升演算法

python3程式碼實現在https://github.com/yantijin/Lean_DataMining上,時間匆忙,敬請之處錯誤之處,謝謝! 以下內容轉自:https://blog.csdn.net/androidlushangderen/article/details/4363511

資料關聯規則Apriori演算法

一、Aoriori原始演算法: 頻繁挖掘模式與關聯規則 關聯規則兩個基本的指標(假設有事務A和事務B)   1、支援度(suport):計算公式如下        2、置信度(confidence):    關聯規則的挖掘過程:   1、設定最小支援度閾值,找出所有的頻繁項集且每個出現的次數要

零基礎入門大資料spark中的幾種map

今天再來說一下spark裡面的幾種map方法。前面的文章介紹過單純的map,但是spark還有幾種map值得對比一下,主要是下面幾種: map:普通的map flatMap:在普通map的基礎上多了一個操作,扁平化操作; mapPartitions:相對於分割槽P

零基礎入門大資料spark的rdd

本節簡單介紹一下spark下的基本資料結構RDD,方便理解後續的更多操作。 那麼第一個問題,什麼是rdd。我們知道,大資料一般儲存在分散式叢集裡面,那麼你在對其進行處理的時候總得把它讀出來吧,讀出來後總得把它存成某種格式的檔案吧,就好比程式語言裡面的,這個資料是陣列,那麼你可以以陣列

零基礎入門大資料reduce方法

上節介紹過大資料裡面(以spark為例)最為基礎典型的操作:map方法,map方法直白的理解就是一個分散式接受處理函式的方法,形式如map(fun),map方法本身不做處理,沒有map方法,裡面的函式fun就是一個單機的處理函式,有了map,相當於就把這個函式複製到多臺機器上,每臺機器同

資料倉庫與資料Apriori演算法例項

最近剛上了資料探勘這門課,老師講了兩個演算法,即Apriori演算法和FP-growth演算法,然後佈置了上機作業,挖掘一個有8萬行的記錄的retail.dat,需要從中找出強規則,即同時滿足最小支援度和最小置信度的規則。 Apriori演算法 在這裡給出一個實現找出所有頻繁模式集的

資料Apriori演算法

python3程式碼如下: #coding = utf-8 import numpy #from python_util import fileread """ 程式所需部分: 建立初始的候選集 根據Lk產生Lk+1

資料的一般流程

資料探勘的一般流程 介紹資料探勘的一般流程。尚未明瞭的地方綠字標註,繼續學習。 資料探勘是從大量資料中挖掘出有趣模式和知識的過程。資料來源一般是資料庫、資料倉庫、Web等,得到的資料稱為資料集(dataset)。其中資料倉庫是data mining獨有內容,是從多個數據源

資料方差分析實驗

本部落格根據非常好的excel資料而編寫,使用python語言操作,預計使用一週的時間更新完成。需要《非常好的excel資料》word文件,歡迎發郵件給[email protected],免費發放。這篇部落格對應《非常好的excel資料》裡的第5章節。 1.1 單因素方差分析

資料擬合優度檢驗

本部落格根據非常好的excel資料而編寫,使用python語言操作,預計使用一週的時間更新完成。需要《非常好的excel資料》word文件,歡迎發郵件給[email protected],免費發放。這篇部落格對應《非常好的excel資料》裡的第4章節。 自由度v=(行數-1)(

資料Scala零基礎學習(一)

第5章 函式5.1函式程式程式碼:object section5_1 extends App { // def gcd(x:Int,y:Int):Int=if(x%y==0) y else gcd(

資料關聯分析一(基本概念)

許多商業企業運營中的大量資料,通常稱為購物籃事務(market basket transaction)。表中每一行對應一個事務,包含一個唯一標識TID。 利用關聯分析的方法可以發現聯絡如關聯規則或頻繁項集。 關聯分析需要處理的關鍵問題: 1. 從大型事

資料無監督學習篇

在單鏈接(或單鏈)層次聚類中,兩個聚類之間的距離是兩個聚類中最近的兩個資料點(兩個資料分別來自兩上不同的聚類)之間的距離。即單鏈接聚類演算法在每一步合併那些最近元素具有最小的聚類,即最短最近資料點的兩上聚類。

資料挖掘頻繁模式的基本概念及方法

摘自《DATA MINING:Concepts and Techniques》一書,以及個人理解,主要為自己鞏固和總結,如有紕漏和出錯的地方,還請指出。此書第六章開頭指出    頻繁模式(frequent pattern),是指頻繁地出現在資料集中的模式,譬如項集,子序列或子

資料關聯規則挖掘Apriori演算法實現

演算法細節見論文:Fast Algorithm for Mining Association Rules 控制檯版本C++程式碼如下: #include <iostream> #include <sstream> #include <fs

資料的的超級應用—資料推薦系統

資料探勘——推薦系統   大資料可以認為是許多資料的聚合,資料探勘是把這些資料的價值發掘出來,比如有過去10年的氣象資料,通過資料探勘,幾乎可以預測明天的天氣是怎麼樣的,有較大概率是正確的。 機器學習是人工智慧的核心,對大資料進行發掘,靠人工肯定是做不來的,那就得靠機器代替