1. 程式人生 > >[機器學習] 一些題目

[機器學習] 一些題目

類域介面方程法中,不能求【線性不可分情況】下分類問題近似或精確解的方法是?(D)

A 偽逆法-徑向基(RBF)神經網路的訓練演算法,就是解決線性不可分的情況

B 基於二次準則的H-K演算法:最小均方差準則下求得權向量,二次準則解決非線性問題

C 勢函式法-非線性

D 感知器演算法-線性分類演算法

Fisher 線性判別函式的求解過程是將N維特徵向量投影在()中進行求解?

線性,當然一維

影響聚類演算法效果的主要原因有:(ABC )

A 特徵選取

B 模式相似性測度

C 分類準則

D 已知類別的樣本質量------------聚類演算法是無監督訓練,若已知類別的樣本則是監督學習的內容

下面說法正確的是?

梯度下降有時會陷於區域性極小值,但EM演算法不會。錯誤

SVM對噪聲魯棒。錯誤

當訓練資料較多時更容易發生過擬合。錯誤

給定n個數據點,如果其中一半用於訓練,另一半用於測試,則訓練誤差和測試誤差之間的差別會隨著n的增加而減小。正確

梯度下降就是對引數求偏導,會陷入區域性最小值,

EM就是最大期望演算法(Expectation Maximization Algorithm,又譯期望最大化演算法),是一種迭代演算法,用於含有隱變數(latent variable)的概率引數模型的最大似然估計或極大後驗概率估計。比如先假定男生身高平均1.7 方差0.1 然後求將ABCDEFG歸類,分到1.7左邊右邊,重新求方差,反覆迭代,直到不再變化。

訓練資料少才會過擬合。

訓練資料多會減少偏差。

考慮兩個分類器:1)核函式取二次多項式的SVM分類器和2)沒有約束的高斯混合模型(每個類別為一個高斯模型)。我們對R2空間的點進行兩類分類。假設資料完全可分,SVM分類器中不加鬆弛懲罰項,並且假設有足夠多的訓練資料來訓練高斯模型的協方差。下面說法正確的是?

SVMVC維大於高斯混合模型的VC
SVMVC維小於高斯混合模型的VC ---正確
兩個分類器的結構風險值相同
這兩個分類器的VC維相同

VC維(Vapnik-Chervonenkis Dimension)的概念是為了研究學習過程一致收斂的速度和推廣性,由統計學理論定義的有關函式集學習效能的一個重要指標。

VC維反映了函式集的學習能力,VC維越大則學習機器越複雜(容量越大):對一個指示函式集,如果存在H個樣本能夠被函式集中的函式按所有可能的2H次方種形式分開,則稱函式集能夠把H個樣本打散;函式集的VC維就是它能打散的最大樣本數目H

所謂混合高斯模型(GMM)就是指對樣本的概率密度分佈進行估計,而估計採用的模型(訓練模型)是幾個高斯模型的加權和(具體是幾個要在模型訓練前建立好)。每個高斯模型就代表了一個類(一個Cluster)。對樣本中的資料分別在幾個高斯模型上投影,就會分別得到在各個類上的概率。然後我們可以選取概率最大的類所為判決結果。