缺失資料的極大似然估計:《Statistical Analysis with Missing Data》習題7.16
一、題目
a)極大似然估計
X為伯努利分佈,並且 Pr(X=1)=1−Pr(X=0)=π,並且在給定 X=j (j=0,1)時, Y的分佈為均值 μj,方差 σ2。
針對一份完整隨機樣本 (xi,yi),i=1,...,n,計算 (π,μ0,μ1,σ2)的極大似然估計並計算 Y的邊際均值與方差。
b)缺失資料的極大似然估計
假設現在 X是完整的觀測,但 Y有 n−r個值缺失,請使用第七章的方法,計算 Y的邊際均值與方差。
c)從後驗分佈中生成引數
當先驗分佈表現為 p(π,μ0,μ1,logσ2)∝π1/2(1−π)1/2的形式,描述如何從引數為 (π,μ0,μ1,σ2)的後驗分佈中抽出引數。
(注:前面的逗號均使用全形,後面公式中的逗號為半形,中文字中間的逗號為全形。)
二、解答
a)極大似然估計
寫出聯合密度函式,首先列出一個樣本時的密度:
==f(xi,yi∣μ0,μ1,σ2,π)f(xi∣π)⋅f(yi∣xi,μ0,μ1,σ2,π)πxi⋅(1−π)1−xi⋅(2πσ2
1exp{−2σ2(yi−μ1)2})xi⋅(2πσ2
1exp{−2σ2(yi−μ0)2})1−xi
n個樣本的聯合密度函式:
相關推薦
缺失資料的極大似然估計:《Statistical Analysis with Missing Data》習題7.16
一、題目 a)極大似然估計 X X X為伯努利分佈,並且
極大似然估計:一個例子
1 題目: 已知甲、乙兩射手命中靶心的概率分別為0.9及0.4,今有一張靶紙上面的彈著點表明為10槍6中,已知這張靶紙肯定是甲、乙之一射手所射,問究竟是誰所射? 【題目選自《應用數理統計》,吳翊、李永樂、胡慶軍編著,國防科技大學出版社,1995年8月第1版,第33頁例2.7】
缺失資料構造置信區間:《Statistical Analysis with Missing Data》習題7.9
一、題目 7.9 依題意,我們用下述方法生成模擬資料: y i
缺失資料的Bootstrap與Jackknife方法:《Statistical Analysis with Missing Data》習題5.1 & 5.2
一、題目 5.1 本題基於之前習題1.6產生關於 ( Y 1
插補缺失資料的幾種方法:《Statistical Analysis with Missing Data》習題4.15
一、題目 本題基於之前習題1.6產生關於 ( Y 1
EM,SEM演算法操作例項:《Statistical Analysis with Missing Data》習題9.1 & 9.2
一、題目 Example 9.1 & 9.2 重現書中Example 9.1與9.2。 先貼出SEM演算法: SEM 下面是Example 9.1與Example 9.2原例: Example 9.1 Example 9.2
《Statistical Analysis with Missing Data》習題1.6
題目 解答 由於題目要求需要重複三次類似的操作,故首先載入所需要的包,構造生成資料的函式以及繪圖的函式: library(tidyr) # 繪圖所需 library(ggplot2) # 繪圖所需 # 生成資料 GenerateData <
《Statistical Analysis with Missing Data》習題5.1——5.2
一、題目 5.1 本題基於之前習題1.6產生關於(Y1,Y2,U)(Y_1, Y_2, U)(Y1,Y2,U)的模擬資料: yi1=1+zi1y_{i1}=1+z_{i1}yi1=1+zi1 yi2=5+2∗zi1+zi2y_{i2}=5+2*z_{i1
《Statistical Analysis with Missing Data》習題4.15
一、題目 本題基於之前習題1.6產生關於(Y1,Y2,U)(Y_1, Y_2, U)(Y1,Y2,U)的模擬資料: yi1=1+zi1y_{i1}=1+z_{i1}yi1=1+zi1 yi2=5+2∗zi1+zi2y_{i2}=5+2*z_{i1}+z_
使用EM演算法對含有缺失資料的聯合泊松分佈的引數進行極大似然估計
本文是對《ML estimation in the bivariate passion distribution in the presence of missing values via the em algorithm》K.Adamids & S.L
機器學習筆記(一):極大似然估計與貝葉斯估計的區別
似然函式: 樣本資料的分佈和在引數為下的概率分佈的相似程度 極大似然估計:只要求出符合樣本資料分佈的最優引數即可,不需要考慮先驗。 貝葉斯估計 MAP(最大後驗估計)
機器學習:極大似然估計
一、問題描述 二、演算法核心思想分析 三、程式碼及執行結果 a.py import xlrd import numpy as np # 讀取資料 def read_d
MATLAB學習筆記:極大似然估計
極大似然估計的步驟: 1、寫出似然函式 2、對似然函式取對數,並整理 3、求導數 4、解似然方程 極大似然估計的Matlab命令mle呼叫格式: phat=mle(data) 返回服從正態分佈的資料引數的極大似然估計。 phat=mle(data,'distributi
概率統計與機器學習:獨立同分布,極大似然估計,線性最小二乘迴歸
獨立同分布 獨立性 概念:事件A,B發生互不影響 公式:P(XY)=P(X)P(Y) , 即事件的概率等於各自事件概率的乘積 舉例: 正例:兩個人同時向上拋硬幣,兩個硬幣均為正面的概率 反例:獅子在某地區出現的概率為X,老虎出現概率為Y,同時出現
【ML學習筆記】17:多元正態分佈下極大似然估計最小錯誤率貝葉斯決策
簡述多元正態分佈下的最小錯誤率貝葉斯 如果特徵的值向量服從d元正態分佈,即其概率密度函式為: 即其分佈可以由均值向量和對稱的協方差矩陣 唯一確定。 如果認為樣本的特徵向量在類內服從多元正態分佈: 即對於每個類i,具有各自的類內的均值向量和協
EM演算法:從極大似然估計匯出EM演算法(還算通俗易懂)
之前看了《統計學習方法》,吳恩達老師的cs229講義,一起看感覺很昏(如果要看建議選擇其中一個,《統計學習方法》裡面基本很少會寫到 y
數理統計7:矩法估計(MM)、極大似然估計(MLE),定時截尾實驗
在上一篇文章的最後,我們指出,引數估計是不可能窮盡討論的,要想對各種各樣的引數作出估計,就需要一定的引數估計方法。今天我們將討論常用的點估計方法:矩估計、極大似然估計,它們各有優劣,但都很重要。由於本系列為我獨自完成的,缺少審閱,**如果有任何錯誤,歡迎在評論區中指出,謝謝**! [TOC] ## Par
極大似然估計
nbsp 比較 拋硬幣 http 技術 bsp 可行性 img 就是 知乎上這篇文章介紹的比較形象:https://www.zhihu.com/question/24124998 先比較下概率和似然,把硬幣的"花"出現的概率稱為硬幣的參數 1. 概率VS似然 1.1 概率
極大似然估計的理解與應用
view 屬於 是我 中一 都是 關於 例子 max 同時 極大似然估計是概率論中一個很常用的估計方法,在機器學習中的邏輯回歸中就是基於它計算的損失函數,因此還是很有必要復習一下它的相關概念的。 背景 先來看看幾個小例子: 獵人師傅和徒弟一同去打獵,遇到一只兔子,師傅
極大似然估計與貝葉斯定理
lan 說明 概率論 可能性 聯合 訓練樣本 對數 www. 條件 文章轉載自:https://blog.csdn.net/zengxiantao1994/article/details/72787849 極大似然估計-形象解釋看這篇文章:https://www.zhihu