[機器學習] 一些題目
類域介面方程法中,不能求【線性不可分情況】下分類問題近似或精確解的方法是?(D)
A 偽逆法-徑向基(RBF)神經網路的訓練演算法,就是解決線性不可分的情況
B 基於二次準則的H-K演算法:最小均方差準則下求得權向量,二次準則解決非線性問題
C 勢函式法-非線性
D 感知器演算法-線性分類演算法
Fisher 線性判別函式的求解過程是將N維特徵向量投影在()中進行求解?
線性,當然一維
影響聚類演算法效果的主要原因有:(ABC )
A 特徵選取
B 模式相似性測度
C 分類準則
D 已知類別的樣本質量------------聚類演算法是無監督訓練,若已知類別的樣本則是監督學習的內容
下面說法正確的是?
梯度下降有時會陷於區域性極小值,但EM演算法不會。錯誤
SVM對噪聲魯棒。錯誤
當訓練資料較多時更容易發生過擬合。錯誤
給定n個數據點,如果其中一半用於訓練,另一半用於測試,則訓練誤差和測試誤差之間的差別會隨著n的增加而減小。正確
梯度下降就是對引數求偏導,會陷入區域性最小值,
EM就是最大期望演算法(Expectation Maximization Algorithm,又譯期望最大化演算法),是一種迭代演算法,用於含有隱變數(latent variable)的概率引數模型的最大似然估計或極大後驗概率估計。比如先假定男生身高平均1.7 方差0.1 然後求將ABCDEFG歸類,分到1.7左邊右邊,重新求方差,反覆迭代,直到不再變化。
訓練資料少才會過擬合。
訓練資料多會減少偏差。
考慮兩個分類器:1)核函式取二次多項式的SVM分類器和2)沒有約束的高斯混合模型(每個類別為一個高斯模型)。我們對R2空間的點進行兩類分類。假設資料完全可分,SVM分類器中不加鬆弛懲罰項,並且假設有足夠多的訓練資料來訓練高斯模型的協方差。下面說法正確的是?
SVM的VC維大於高斯混合模型的VC維
SVM的VC維小於高斯混合模型的VC維 ---正確
兩個分類器的結構風險值相同
這兩個分類器的VC維相同
VC維(Vapnik-Chervonenkis Dimension)的概念是為了研究學習過程一致收斂的速度和推廣性,由統計學理論定義的有關函式集學習效能的一個重要指標。
所謂混合高斯模型(GMM)就是指對樣本的概率密度分佈進行估計,而估計採用的模型(訓練模型)是幾個高斯模型的加權和(具體是幾個要在模型訓練前建立好)。每個高斯模型就代表了一個類(一個Cluster)。對樣本中的資料分別在幾個高斯模型上投影,就會分別得到在各個類上的概率。然後我們可以選取概率最大的類所為判決結果。