1. 程式人生 > >PMP知識點總結-決策樹(DMT)分析:制定專案決策

PMP知識點總結-決策樹(DMT)分析:制定專案決策

 1.為什麼使用決策樹分析? 
  當專案需要做出某種決策、選擇某種解決方案或者確定是否存在某種風險時,決策樹(decision making tree)提供了一種形象化的、基於資料分析和論證的科學方法,這種方法通過嚴密地邏輯推導和逐級逼近地資料計算,從決策點開始,按照所分析問題的各種發展的可能性不斷產生分枝,並確定每個分支發生的可能性大小以及發生後導致的貨幣價值多少,計算出各分枝的損益期望值,然後根據期望值中最大者(如求極小,則為最小者)作為選擇的依據,從而為確定專案、選擇方案或分 析風險做出理性而科學的決策。 
  2.決策樹分析有哪些作用? 
    決策樹分析清楚顯示出專案所有可供選擇的行動方案,行動方案之間的關係,行動方案的後果,後果發生的概率,以及每種方案的損益期望值; 
    使紛繁複雜的決策問題變得簡單、明瞭,並且有理有據; 
    用資料說話,形成科學的決策,避免單純憑經驗、憑想象而導致的決策上的失誤。 
  3.怎麼用?

 
  (1)決策樹包含了決策點,通常用方格或方塊表示,在該點表示決策者必須做出某種選擇;機會點,用圓圈表示,通常表示有機會存在。先畫一個方框作為出發點,叫做決策點; 
  (2)從決策點向右引出若干條支線(樹枝線),每條支線代表一個方案,叫做方案枝;   (3)在每個方案枝的末端畫一個圓圈,叫做狀態點; 
  (4)估計每個方案發生的概率,並把它註明在在該種方案的分支上,稱為概率枝; 
  (5)估計每個方案發生後產生的損益值,收益用正值表示,損失用負值表示; 
  (6)計算每個方案的期望價值,期望價值=損益值x該方案的概率; 
  (7)如果問題只需要一級決策,在概率枝末端畫△表示終點,並寫上各個自然狀態的損益值;
  (8)如果是多級決策,則用決策點□代替終點△重複上述步驟繼續畫出決策樹,如圖1所示。
  (9)計算決策期望值,決策期望值=由此決策而發生的所有方案期望價值之和; 
  (10)根據決策期望值做出決策。 

按此在新視窗瀏覽圖片


  圖1 決策樹   4.舉例: 
  某承包商向某工程投標,計劃採取兩種策略:一種是投高標,中標機會為0.2,不中標機會為0.8;另一種是投低標,中標與不中標機會均為0.5。投標不中時,則損失投標準備費5萬元。根據下表資料,用決策樹做出決策。 

方案 效果 可能獲利 (萬元) 概率
高標 500 0.3
一般 300 0.5
-100 0.2
低標 350 0.2
一般 200 0.6
-150 0.2

按此在新視窗瀏覽圖片


  計算的結果表明, 
  高標:  
  500×0.3+300×0.5-100×0.2=280萬,280×0.2-5×0.8=52萬; 
  低標: 
  350×0.2+200×0.6-150×0.2=160萬,160×0.5-5×0.5=77.5萬; 
  最大損益期望值為77.5萬,也就是上說若投高標,可能最多隻能賺到52萬,而若投低標則有可能賺到77.5萬,故應採取低標策略。

相關推薦

PMP知識點總結-決策DMT分析制定專案決策

 1.為什麼使用決策樹分析?   當專案需要做出某種決策、選擇某種解決方案或者確定是否存在某種風險時,決策樹(decision making tree)提供了一種形象化的、基於資料分析和論證的科學方法,這種方法通過嚴密地邏輯推導和逐級逼近地資料計算,從決策點開始,按照所分析問

決策分析與實踐

目錄 1 分析 1.1 背景: 1.2 定義 1.3 原理: CART如何選擇分裂的屬性? 如何進行樹的剪枝來防止過擬合 對於含有空值的資料,此時應該怎麼構建樹。 2.實踐:(《機器學習實戰》第九章程式碼解析) CART演算法的實現(運用到預剪枝) 後剪枝演算

監督式學習 -- 分類決策

cte 求解 分支 基本概念 tracking 它的 解決 mat 這就是 決策樹(decision tree)是一種基本的分類與回歸方法。其表示的樹型結構,能夠覺得是if-else規則的集合。基本的長處是分類可讀性好,速度快。一般會有三個步驟:特征選擇、決策樹的生成

算法總結——主席poj2104

() key orm 關於 data 分享 ogr d+ put 題目: Description You are working for Macrohard company in data structures department. After failing your

機器學習--DIY筆記與感悟--②決策1

lis ... 編寫代碼 需要 總結 初始化 對數 三分 xtend 在完成了K臨近之後,今天我們開始下一個算法--->決策樹算法。 一、決策樹基礎知識 如果突然問你"有一個陌生人叫X,Ta今天需要帶傘嗎?", 你一定會覺得這個問題就像告訴你"兩千米外有一個超市,

決策分類算法小結

最大的 可靠 dot 記錄 依賴 基礎 判定樹 每一個 循環調用 引言   本文主要是對分類型決策樹的一個總結。在分類問題中,決策樹可以被看做是if-then規則的結合,也可以認為是在特定特征空間與類空間上的條件概率分布。決策樹學習主要分為三個步驟:特征選擇、決策樹的生成與

決策決策調參

spa lin rep core lua 性能 lib bin target 引言   在這篇文章中,我們將探討決策樹模型的最重要參數,以及它們如何防止過度擬合和欠擬合,並且將盡可能少地進行特征工程。我們將使用來自kaggle的泰坦尼克號數據。 導入數據 import

機器學習之決策

天氣 次數 format 定義 表示 葉子節點 ast 代碼 wid 一、復習信息熵   為了解決特征選擇問題,找出最優特征,先要介紹一些信息論裏面的概念。   1、熵(entropy)          python3代碼實現: def calcShannonEnt(

機器學習十大演算法之決策詳細

什麼是決策樹? 如何構建決策樹? ID3 C4.5 CART 決策樹的優缺點及改進 什麼是決策樹? 決策樹是運用於分類的一種樹結構,其本質是一顆由多個判斷節點組成的樹,其中的每個內部節點代表對某一屬性的一次測試,每條邊代表一個測試結果,而葉節點代表某個類或類的分佈。 屬於有監督學習 核心思想:

決策剪枝

    可以這樣理解,剪枝後剩下的計算損失函式比剪枝前更小。   來源: https://blog.csdn.net/bird_fly_i/article/details/72824639?utm_sourc

決策

  也可以說,資訊量度量的是一個具體事件發生了所帶來的資訊,而熵則是在結果出來之前對可能產生的資訊量的期望——考慮該隨機變數的所有可能取值,即所有可能發生事件所帶來的資訊量的期望。即: 1.2 條件熵(可以理解為在給定某種條件下弄清這件事所需要的資訊量,其中給定某種條件後給

決策

1、舉例: 關於什麼是決策樹(decision tree),我們先來看這麼一個例子。假如我錯過了看世界盃,賽後我問一個知道比賽結果的人“哪支球隊是冠軍”?他不願意直接告訴我,而讓我猜,並且每猜一次,他要收一元錢才肯告訴我是否猜對了,那麼我要掏多少錢才能知道誰是冠軍呢?我可以把球隊編上號,從1到1

決策

# -*- coding: utf-8 -*- """ 熵定義為資訊的期望值。 熵:表示隨機變數的不確定性。 條件熵:在一個條件下,隨機變數的不確定性。 資訊增益:熵 - 條件熵 在一個條件下,資訊不確定性減少的程度! 如果選擇一個特徵後,資訊增益最大(資訊不確定性減少的程度最大),那麼我們就選取這

決策

# -*- coding: utf-8 -*- """ 熵定義為資訊的期望值。 熵:表示隨機變數的不確定性。 條件熵:在一個條件下,隨機變數的不確定性。 資訊增益:熵 - 條件熵 在一個條件下,資訊不確定性減少的程度! 如果選擇一個特徵後,資訊增益最大(資訊不確定性減少的程度最大),那麼我們就選取這

決策分類演算法小結

引言   本文主要是對分型別決策樹的一個總結。在分類問題中,決策樹可以被看做是if-then規則的結合,也可以認為是在特定特徵空間與類空間上的條件概率分佈。決策樹學習主要分為三個步驟:特徵選擇、決策樹的生成與剪枝操作。本文簡單總結ID3和C4.5演算法,之後是決策樹的修剪。 ID3演算法   ID3演算法和核

決策CART

以下內容轉載來源:http://www.cnblogs.com/pinard/p/6053344.html 一、決策樹 1.決策樹與隨機森林都屬於機器學習中監督學習的範疇,主要用於分類問題。  決策樹演算法有這幾種:ID3、C4.5、CART(Classification And

機器學習實戰--決策

決策樹是一種通過推斷分解,逐步縮小待推測事物範圍的演算法結構,重要任務就是理解資料中所蘊含的知識資訊,可以使用不熟悉的資料集合,並從中提取出一系列規則,根據資料集建立規則的過程就是機器學習的過程。 優點:計算複雜度不高,輸出結果易於理解,對中間值的缺失不敏感,可以處理不相關特

機器學習實戰決策——資訊增益與劃分資料集

from math import log #計算給定的熵 def calcsahnnonent(dataset): numentries = len(dataset) #計算例項的總數 labelcounts ={} #

決策之CART的分析與實踐

1 分析 1.1 背景:        線性迴歸的模型一般都要擬合所有的樣本點,但當資料擁有眾多特徵,並且特徵之間的關係十分的複雜,這時候往往是非線性的問題,很難構建全域性模型。        方法:將資料集切分成很多份易建模的的資料,再線性迴歸(就像微分一樣的思想),一

機器學習實戰——1.2決策2

宣告:參考書目《機器學習實戰》作者: Peter Harrington 出版社: 人民郵電出版社 譯者: 李銳 / 李鵬 / 曲亞東 / 王斌  宣告:參考書目《統計學習方法》作者: 李航  出版社: 清華大學出版社   ISBN: 9787302275954