圖像算法面試題匯總


1.二叉搜索樹的插入與搜索,及其平均時間復雜度、最壞時間復雜度

2.二叉搜索樹怎么轉平衡二叉樹  

3.C++的左值與右值,std:move(),深拷貝和淺拷貝

4.面向對象的概念

5.C++的虛函數

6.面向對象的三大特征

7.ROI Align的本質是不是resize操作?ROI Align細節

 

8.目標檢測two-stage模型

       RCNN->SPPNet-> Fast RCNN-> Faster RCNN-> RFCN-> DCN->DCNv2

9.目標檢測one-stage模型

       YOLOv1\v2\v3->SSD->RefineDet->retinaNet

       YOLO和SSD的區別

10.resnet和densenet的區別,denseNet有沒有改進模型(DPN、AAAI2018的MixNet),相同層數resnet、denseNet哪個好?

 

11.inception系列的演化

12.BN的原理和實現細節,其中均值和標准差的計算,以及訓練和測試時分別怎么用

13.focal loss,用的什么核的,效果有沒有區別,調過參數沒有。Focal loss的兩個參數有什么作用

14.小目標檢測用什么方法

15.mobileNet v1\v2\v3

16.COCO冠軍方案

17.多標簽不平衡怎么處理,多任務不平衡怎么處理

18.改善NMS

       IOU-guided-nms:IOUNet\softNMS\sofer-nms   實現細節

19.改善RPN

20.RFBNet

       Receptive Field Block

       模擬人類視覺的感受野加強網絡的特征提取能力,在結構上RFB借鑒了inception的思想,主要是在inception的基礎上假如了dilation卷積層,從而有效增大了感受野。

21.深度可分離卷積

22.two-stage為什么效果好

23.激活函數

24.損失函數,分類loss函數

25.數字圖像處理的各種濾波

26.k折交叉驗證

27.模型融合:adaboost

28.C++指針和引用的區別

29.mask rcnn和mask scoring rcnn

30.logistic回歸、SVM、boosting/bagging

31.數據預處理transformer模塊

32.處理不平衡的方法

33.圓上任意三個點組成的三角形包含圓心的概率

34.GAN

35.分布式,多卡使用

36.dataloder、dataset、sampler關系

37.人臉和身體一起檢測,怎么處理

38.目標檢測存在的問題,及個人理解;小目標怎么解決,遮擋怎么解決

39.概率:x,y,z都是(0,1)均勻分布,x+y+z<1的概率

40.人臉屬性的任務、方法

41.n個文件(海量文件),查找和排序,二分查找的時間復雜度

42.知道哪些CV任務

       分類、檢測、分割、姿態、GAN、VAE\caption等

43.卷積、池化、全連接層、BN/IN/GN等

44.優化器

45.mAP的概念

46.傳統機器學習,SVM\boosting\bagging\隨機森林

       Bagging和隨機森林的區別

47.屬性任務不平衡

48.屬性任務的實際應用,目標檢測實際應用

49.各種排序算法,快排時間復雜度,快排時間復雜度推導

50.時間復雜度為O(1)的排序算法

51.detection的two-stage的閾值有什么好方法,cascade RCNN?

52.模型具體的recall和precision

53.weighted sample 和focal loss

54.如果訓練集不平衡,測試集平衡,直接訓練、過采樣和欠采樣處理,哪個更好?

55.F1 score的alpha=1,那么alpha取其他值是什么含義。

56.canny邊緣檢測

57.SVM的核函數,損失函數

58.KNN

59.視頻分類網絡:分兩路,一路提取視頻音頻特征,一路提取視頻時空特征。如何融合兩路特征。

60.Faster RCNN的細節,怎么篩選正負Anchor

61. OHEM原理

62. YOLO2細節

63.python的copy()和deepcopy() 普通賦值,有啥區別

64.loss不降低怎么辦,val loss不升(過擬合)怎么辦

65.pytorch\tensorflow的區別

66. Discriminative loss 解釋

67.模型壓縮了解哪些

68.比賽的數據比例分別是多少,類別不平衡怎么處理

69.如何處理梯度彌散問題?CNN-LSTM

70.policy gradient和Q learning的區別

71.語義分割到實例分割怎么做

72.介紹下圖像里面的多尺度(FPN、不同rate的空洞卷積等)

73.CTPN、OCR

74.SIFT、HOG。SIFT是如何保持尺度不變性的。

75.如何根據局部特征去檢索更大的圖片

76.OpenCV如何讀取數據流中的圖片

77.OpenCV如何生成圖片

78.概率題:連續拋一枚公平的硬幣,直到連續出現兩次正面為止,平均要扔多少次硬幣

79.交叉熵的公式,多類別交叉熵具體怎么計算的(標簽x概率)

80.linux查找進程,查找文件

81.說說特征工程、特征融合原則、怎么篩選

82.boosting、lightGBM

83.介紹下ENet\UNet

84.實例分割、二值分割的區別

85.python的static裝飾器

86.numpy用法,對某個矩陣的某一列全部置0,用什么操作

87.softmax公式,softmax的梯度是什么?

88.數據增強用了什么方法,在線增強和離線增強有什么區別

89.如何處理mask重合問題

90.faster rcnn中采用的類似focal loss的操作是什么

91.上采樣方法、反卷積

92.Miou語義分割評價指標

93.兩個bbox的頂點,如何快速判斷重疊

94.說一下faster-rcnn的整個從輸入到輸出的框架流程

95.說一下RPN的原理

96.如何解決類內的檢測

97.講一下小目標檢測,FPN為什么能提高小目標的‘准確率’,FPN的特征融合為什么是相加操作呢?FPN是怎么提高小目標的‘檢出率’的?小目標在FPN的什么位置檢測?

98.如果有很長、很小或者很寬的目標,用過如何處理

99.pytorch的卷積是如何實現的?

100.python多線程

101.大目標如果有兩個候選框和GT重合應該怎么處理

102.為什么說ResNet101不適合檢測

103.SENet為什么效果好?為什么說SENet泛化性能好?SE接在ResNet\inception的什么位置呢?

104. sigmoid和softmax的區別

105. DetNet原理

106.知識蒸餾:用大網絡教小網絡的方法?

107.假如一個圖片中有一個很大的目標還有一個很小的目標,你會怎么處理?

108.多尺度訓練如何設置?

109.長邊為什么設置成1333,短邊為什么設置成32的倍數?

110.anchor-free為什么能重新火起來?

111.smooth L1 loss為什么更有效?

112.SGD、Adam之類優化的原理

113.BN為什么有效?

114.python有哪些常用的庫,報一遍

115.說一下使用pytorch對cifar10數據集分類的整個代碼流程,構建模型的過程是怎么樣的?

116.github的常用操作:上傳、合並、分支之類的

117.linux的常用操作:查看文件大小、刪除文件、查看文件行數、假如文件中的有很多文件,每個文件中又有很多文件,如何刪除全部文件?

118.siamRPN、siamFC、DeSiam、SiamRPN++原理

119.有沒有修改過輕量級模型、講一下輕量級的模型。mobileNetv1\v2\v3,shuffleNetv1\v2、xception

120.決策樹、集成學習

121.mask rcnn如何提高mask的分辨率

122.info GAN和GAN的細致區別

123.YOLO識別微笑物體效果差,為什么?

124.如何在3kw像素的圖片中識別出10像素左右的瑕疵

125.mAP這個指標,在什么場景下適用,什么場景下會有問題,比如哪些問題?

126.WGAN的公式,原理

127.python的字典的實現

128.LR的損失函數與推導

129.C++ STL用過哪些,知道map的底層實現嘛?

130說說紅黑樹?

131.define和const和static區別?

132.與SGD類似的優化方法:momentum、Adagrad、Adam等

133.二階優化方法有哪些?相比一階的區別?

134.SVM推導。核函數,調參等

135.xgboost和gdbt怎么做回歸和分類的,有什么區別?

136.c++虛函數?虛函數表?

137.python list反轉?元素去重復?

138.depplab、ASPP是怎樣的?

139.k-means是怎么實現的,k近鄰算法呢?

140.靜態變量有什么用,靜態變量在哪初始化,能在類內初始化嘛?靜態函數有什么用?

141.如何使用多線程加速pytorch的dataloader?

142.python的append和extend有什么區別?

143.BP的過程

144.反卷積具體怎么實現的?

145.進程與線程的區別,以及什么時候適合用線程進程

146.c++  STL中的map和hash_map的查找算法是怎么樣的?時間復雜度是多少?

147.pytorch的permute和view的功能

148.手寫計算AUC曲面面積的代碼

149.如何解決過擬合

150.講一下隨機森林的原理

151.python的對象(object)和C++中的對象有什么區別?

152.python的lambda

153.手寫中值濾波,介紹一下高斯濾波、均值濾波

154.進程、線程、協程的區別以及用處

155.c++中析構函數的作用、static的作用和特點

156.SIFT特征提取怎么做的,具備什么性質?為什么? HOG特征提取怎么做的,具備什么性質? Haar特征提取怎么做的,具備什么性質?LBP特征提取是怎么做的?

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM