深度學習崗位面試題


1: LSTM結構推導,為什么比RNN好?
答案:推導forget gate,input gate,cell state, hidden information等的變化;因為LSTM有進有出且當前的cell informaton是通過input gate控制之后疊加的,RNN是疊乘,因此LSTM可以防止梯度消失或者爆炸;

2:梯度消失爆炸為什么?
答案:略

3:為什么你用的autoencoder比LSTM好?
答案:我說主要還是隨機化word embedding的問題,autoencoder的句子表示方法是詞袋方法,雖然丟失順序但是保留物理意義;(?)

4: overfitting怎么解決:
答案:dropout, regularization, batch normalizatin;

5:dropout為什么解決overfitting,L1和L2 regularization原理,為什么L1 regularization可以使參數優化到0, batch normalizatin為什么可以防止梯度消失爆炸;
答案:略
6: 模型欠擬合的解決方法:
答案:我就說到了curriculum learning里面的sample reweight和增加模型復雜度;還有一些特征工程;然后問了常用的特征工程的方法;

7:(簡歷里面寫了VAE和GAN還有RL,牛逼吹大了)VAE和GAN的共同點是什么,解釋一下GAN或者強化學習如何引用到你工作里面的;
答案:略

傳統機器學習
1:SVM的dual problem推導;
2:random forest的算法描述+bias和variance的分解公式;
3:HMM和CRF的本質區別;
4:頻率學派和貝葉斯派的本質區別;
5:常用的優化方法;
6: 矩陣行列式的物理意義(行列式就是矩陣對應的線性變換對空間的拉伸程度的度量,或者說物體經過變換前后的體積比)


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM