CV:
1. 常見的模型加速方法
2. 目標檢測里如何有效解決常見的前景少背景多的問題
3. 目標檢測里有什么情況是SSD、YOLOv3、Faster R-CNN等所不能解決的,假設網絡擬合能力無限強
4. ROIPool和ROIAlign的區別
5. 介紹常見的梯度下降優化方法
6. Detection你覺的還有哪些可做的點
7. mini-Batch SGD相對於GD有什么優點
8. 人體姿態估計主流的兩個做法是啥?簡單介紹下
9. 卷積的實現原理以及如何快速高效實現局部weight sharing的卷積操作方式
10. CycleGAN的生成效果為啥一般都是位置不變紋理變化,為啥不能產生不同位置的生成效果
ML:
1. 寫出全概率公式&貝葉斯公式
2. 模型訓練為什么要引入偏差(bias)和方差(variance)? 證
3. CRF/朴素貝葉斯/EM/最大熵模型/馬爾科夫隨機場/混合高斯模型
4. 如何解決過擬合問題?
5. One-hot的作用是什么?為什么不直接使用數字作為表示
6. 決策樹和隨機森林的區別是什么?
7. 朴素貝葉斯為什么“朴素naive”?
8. kmeans初始點除了隨機選取之外的方法
9. LR明明是分類模型為什么叫回歸
10. 梯度下降如何並行化
11. LR中的L1/L2正則項是啥
12. 簡述決策樹構建過程
13. 解釋Gini系數
14. 決策樹的優缺點
15. 出現估計概率值為 0 怎么處理
16. 隨機森林的生成過程
17. 介紹一下Boosting的思想
18. gbdt的中的tree是什么tree?有什么特征
19. xgboost對比gbdt/boosting Tree有了哪些方向上的優化
20. 什么叫最優超平面
21. 什么是支持向量
22. SVM如何解決多分類問題
23. 核函數的作用是啥
