大資料演算法崗位面試題
神經網路
1、簡述反向傳播原理 (阿里),面試官微信發了一道反向傳播的算數題,要求算出結果並解釋 (要能計算的)
2、sigmoid和ReLU的優劣
3、梯度消失問題和損失函式有關嗎?
4、Dropout為什麼能防止過擬合?
5、Batch Normalization有什麼好處?
6、講講Adam優化演算法
7、能想到哪些衡量兩個向量之間距離的方法(L1, L2, cosine,或者深度學習裡訓練MLP作為距離函式,注意normalization)
8、衡量兩個字串之間距離的方法?(樓主答了edit distance和Jaccard distance,不知道還有沒有其他常用的)
9、LSTM相比普通RNN有哪些優勢?為什麼能解決梯度消失?
10、LSTM和GRU用哪個好?(樓主表示兩個之間沒有絕對的優劣..面試官表示認同,說實際應用裡確實會因為計算速度而選擇GRU)
11、梯度消失梯度爆炸怎麼解決
12、RNN容易梯度消失,怎麼解決(LSTM)
13、LSTM跟RNN有啥區別
14、KMeans講講,KMeans有什麼缺點,K怎麼確定
15、卷積層和池化層有什麼區別
16、防止過擬合有哪些方法
17、闡述SVM原理,為何使用對偶性以及對偶性原理,SVM如何解決多分類,SVM與LR對比。
18、闡述GBDT、xgboost、lightGBM的異同,xgb的優勢,lgb的優勢,二者的並行如何實現。
19、闡述word2vec的原理,為何使用哈弗曼樹,如何構建哈夫曼,負取樣的原理。
20、對於一個取值較多的類別變數在不能進行onehot的情況下如何使用?
1、給定一個query和一個doc,能想到哪些衡量相關性的方法(答了bag of words, LSTM encode, CNN encode, bi-directional attention等等);面試官最後提到一種match-CNN說樓主可以面試完研究一下
3、LSTM、GRU、RNN的原理以及差別
4、梯度消失與梯度爆炸的產生原因,如何避免?
5、CNN的原理,卷積為何有效?1*1卷積的作用?
6、HMM與CRF的原理,差別,是全域性最優還是區域性最優以及為什麼。
7、講一下其中的LR、SVM,以及區別和聯絡
獲取更多相關大資料技術資料可以掃描下方微信二維碼: