1.二叉搜索樹的插入與搜索,及其平均時間復雜度、最壞時間復雜度
2.二叉搜索樹怎么轉平衡二叉樹
3.C++的左值與右值,std:move(),深拷貝和淺拷貝
4.面向對象的概念
5.C++的虛函數
6.面向對象的三大特征
7.ROI Align的本質是不是resize操作?ROI Align細節
8.目標檢測two-stage模型
RCNN->SPPNet-> Fast RCNN-> Faster RCNN-> RFCN-> DCN->DCNv2
9.目標檢測one-stage模型
YOLOv1\v2\v3->SSD->RefineDet->retinaNet
YOLO和SSD的區別
10.resnet和densenet的區別,denseNet有沒有改進模型(DPN、AAAI2018的MixNet),相同層數resnet、denseNet哪個好?
11.inception系列的演化
12.BN的原理和實現細節,其中均值和標准差的計算,以及訓練和測試時分別怎么用
13.focal loss,用的什么核的,效果有沒有區別,調過參數沒有。Focal loss的兩個參數有什么作用
14.小目標檢測用什么方法
15.mobileNet v1\v2\v3
16.COCO冠軍方案
17.多標簽不平衡怎么處理,多任務不平衡怎么處理
18.改善NMS
IOU-guided-nms:IOUNet\softNMS\sofer-nms 實現細節
19.改善RPN
20.RFBNet
Receptive Field Block
模擬人類視覺的感受野加強網絡的特征提取能力,在結構上RFB借鑒了inception的思想,主要是在inception的基礎上假如了dilation卷積層,從而有效增大了感受野。
21.深度可分離卷積
22.two-stage為什么效果好
23.激活函數
24.損失函數,分類loss函數
25.數字圖像處理的各種濾波
26.k折交叉驗證
27.模型融合:adaboost
28.C++指針和引用的區別
29.mask rcnn和mask scoring rcnn
30.logistic回歸、SVM、boosting/bagging
31.數據預處理transformer模塊
32.處理不平衡的方法
33.圓上任意三個點組成的三角形包含圓心的概率
34.GAN
35.分布式,多卡使用
36.dataloder、dataset、sampler關系
37.人臉和身體一起檢測,怎么處理
38.目標檢測存在的問題,及個人理解;小目標怎么解決,遮擋怎么解決
39.概率:x,y,z都是(0,1)均勻分布,x+y+z<1的概率
40.人臉屬性的任務、方法
41.n個文件(海量文件),查找和排序,二分查找的時間復雜度
42.知道哪些CV任務
分類、檢測、分割、姿態、GAN、VAE\caption等
43.卷積、池化、全連接層、BN/IN/GN等
44.優化器
45.mAP的概念
46.傳統機器學習,SVM\boosting\bagging\隨機森林
Bagging和隨機森林的區別
47.屬性任務不平衡
48.屬性任務的實際應用,目標檢測實際應用
49.各種排序算法,快排時間復雜度,快排時間復雜度推導
50.時間復雜度為O(1)的排序算法
51.detection的two-stage的閾值有什么好方法,cascade RCNN?
52.模型具體的recall和precision
53.weighted sample 和focal loss
54.如果訓練集不平衡,測試集平衡,直接訓練、過采樣和欠采樣處理,哪個更好?
55.F1 score的alpha=1,那么alpha取其他值是什么含義。
56.canny邊緣檢測
57.SVM的核函數,損失函數
58.KNN
59.視頻分類網絡:分兩路,一路提取視頻音頻特征,一路提取視頻時空特征。如何融合兩路特征。
60.Faster RCNN的細節,怎么篩選正負Anchor
61. OHEM原理
62. YOLO2細節
63.python的copy()和deepcopy() 普通賦值,有啥區別
64.loss不降低怎么辦,val loss不升(過擬合)怎么辦
65.pytorch\tensorflow的區別
66. Discriminative loss 解釋
67.模型壓縮了解哪些
68.比賽的數據比例分別是多少,類別不平衡怎么處理
69.如何處理梯度彌散問題?CNN-LSTM
70.policy gradient和Q learning的區別
71.語義分割到實例分割怎么做
72.介紹下圖像里面的多尺度(FPN、不同rate的空洞卷積等)
73.CTPN、OCR
74.SIFT、HOG。SIFT是如何保持尺度不變性的。
75.如何根據局部特征去檢索更大的圖片
76.OpenCV如何讀取數據流中的圖片
77.OpenCV如何生成圖片
78.概率題:連續拋一枚公平的硬幣,直到連續出現兩次正面為止,平均要扔多少次硬幣
79.交叉熵的公式,多類別交叉熵具體怎么計算的(標簽x概率)
80.linux查找進程,查找文件
81.說說特征工程、特征融合原則、怎么篩選
82.boosting、lightGBM
83.介紹下ENet\UNet
84.實例分割、二值分割的區別
85.python的static裝飾器
86.numpy用法,對某個矩陣的某一列全部置0,用什么操作
87.softmax公式,softmax的梯度是什么?
88.數據增強用了什么方法,在線增強和離線增強有什么區別
89.如何處理mask重合問題
90.faster rcnn中采用的類似focal loss的操作是什么
91.上采樣方法、反卷積
92.Miou語義分割評價指標
93.兩個bbox的頂點,如何快速判斷重疊
94.說一下faster-rcnn的整個從輸入到輸出的框架流程
95.說一下RPN的原理
96.如何解決類內的檢測
97.講一下小目標檢測,FPN為什么能提高小目標的‘准確率’,FPN的特征融合為什么是相加操作呢?FPN是怎么提高小目標的‘檢出率’的?小目標在FPN的什么位置檢測?
98.如果有很長、很小或者很寬的目標,用過如何處理
99.pytorch的卷積是如何實現的?
100.python多線程
101.大目標如果有兩個候選框和GT重合應該怎么處理
102.為什么說ResNet101不適合檢測
103.SENet為什么效果好?為什么說SENet泛化性能好?SE接在ResNet\inception的什么位置呢?
104. sigmoid和softmax的區別
105. DetNet原理
106.知識蒸餾:用大網絡教小網絡的方法?
107.假如一個圖片中有一個很大的目標還有一個很小的目標,你會怎么處理?
108.多尺度訓練如何設置?
109.長邊為什么設置成1333,短邊為什么設置成32的倍數?
110.anchor-free為什么能重新火起來?
111.smooth L1 loss為什么更有效?
112.SGD、Adam之類優化的原理
113.BN為什么有效?
114.python有哪些常用的庫,報一遍
115.說一下使用pytorch對cifar10數據集分類的整個代碼流程,構建模型的過程是怎么樣的?
116.github的常用操作:上傳、合並、分支之類的
117.linux的常用操作:查看文件大小、刪除文件、查看文件行數、假如文件中的有很多文件,每個文件中又有很多文件,如何刪除全部文件?
118.siamRPN、siamFC、DeSiam、SiamRPN++原理
119.有沒有修改過輕量級模型、講一下輕量級的模型。mobileNetv1\v2\v3,shuffleNetv1\v2、xception
120.決策樹、集成學習
121.mask rcnn如何提高mask的分辨率
122.info GAN和GAN的細致區別
123.YOLO識別微笑物體效果差,為什么?
124.如何在3kw像素的圖片中識別出10像素左右的瑕疵
125.mAP這個指標,在什么場景下適用,什么場景下會有問題,比如哪些問題?
126.WGAN的公式,原理
127.python的字典的實現
128.LR的損失函數與推導
129.C++ STL用過哪些,知道map的底層實現嘛?
130說說紅黑樹?
131.define和const和static區別?
132.與SGD類似的優化方法:momentum、Adagrad、Adam等
133.二階優化方法有哪些?相比一階的區別?
134.SVM推導。核函數,調參等
135.xgboost和gdbt怎么做回歸和分類的,有什么區別?
136.c++虛函數?虛函數表?
137.python list反轉?元素去重復?
138.depplab、ASPP是怎樣的?
139.k-means是怎么實現的,k近鄰算法呢?
140.靜態變量有什么用,靜態變量在哪初始化,能在類內初始化嘛?靜態函數有什么用?
141.如何使用多線程加速pytorch的dataloader?
142.python的append和extend有什么區別?
143.BP的過程
144.反卷積具體怎么實現的?
145.進程與線程的區別,以及什么時候適合用線程進程
146.c++ STL中的map和hash_map的查找算法是怎么樣的?時間復雜度是多少?
147.pytorch的permute和view的功能
148.手寫計算AUC曲面面積的代碼
149.如何解決過擬合
150.講一下隨機森林的原理
151.python的對象(object)和C++中的對象有什么區別?
152.python的lambda
153.手寫中值濾波,介紹一下高斯濾波、均值濾波
154.進程、線程、協程的區別以及用處
155.c++中析構函數的作用、static的作用和特點
156.SIFT特征提取怎么做的,具備什么性質?為什么? HOG特征提取怎么做的,具備什么性質? Haar特征提取怎么做的,具備什么性質?LBP特征提取是怎么做的?