一、科大訊飛(合肥)
概況:剛經歷了科大訊飛的初面,大概35分鍾左右,問的內容比較籠統,主要針對簡歷上的內容來,面試官比較親切,回憶了一下面試內容。
建議:把簡歷上的內容整吧清楚,不知道的別瞎寫,寫了就要知道點,還要說的比較勻稱、圓滿。
1.你簡歷上寫的這個聚類的項目,具體是怎么做的呢?
2.你這個文字識別是用什么方法呢?檢測用的什么?說一下該方法的具體使用?既然單階段的結果不夠好為什么不試一下其他方法呢?
3.期望薪資是多少?
4.家哪里的?有對象嗎?
5.有什么想問的?
小聲bb:約好的兩點半,我左等右等焦躁如思春少女,半小時等不來剛進廁所然后電話面試來了,吐血。
一面已過,二面等面了再來更。
二面已掛,就倆問題,沒答出來已經gg,問題:
1.譜聚類圖切怎么整的?
2.矩陣分解方法?
二、CVTE(廣州)
概況:這個公司感覺不夠友好,問題賊多,賊廣,怕是掛唧唧。
建議:圖像處理、深度學習、機器學習各個方面都要看。
數學方面:
1.機器學習中,1范數和2范數的比較?
答:參考 https://blog.csdn.net/zouxy09/article/details/24971995%20
l1范數:向量中各個元素的絕對值之和,矩陣中沿列方向絕對值求和再選出最大值,稀疏規則算子,是l0范數的最優凸近似,比l0好解;
能夠實現稀疏,完成特征選擇,模型更容易理解;
傾向於元素大部分=0。
l2范數:向量的平方和的平方根,矩陣的最大特征值開方;
可以防止過擬合,提升模型的泛化能力(小參數說明模型簡單,模型簡單解決過擬合);
讓優化求解更穩定(矩陣病態,加二范數正則,解析解+λI)快速;
傾向於元素小,≠0。
2.SVD怎么做的?意義?和特征值分解的區別和聯系?
答: 參考 https://blog.csdn.net/shenziheng1/article/details/52916278
意義:A=Q∑Q-1 一個矩陣就是一個線性變換(一個矩陣乘以一個向量得到另一個向量相當於將該向量進行了變換),高維的矩陣就相當於高維空間的變換,這個變換有很多的變換方向,通過特征值得到的前N個特征向量,就是該矩陣主要的變換方向。所以,矩陣特征值分解可以得到特征向量,特征值表示這個特征向量多重要,特征向量表示這個變換方向是什么。
A=U∑VT,奇異值分解就是提取矩陣的主要部分。
做法:奇異值的計算是一個難題,是一個O(N^3)的算法。
區別:
特征值分解要求矩陣必須是方陣,但是所有的矩陣都能進行奇異值分解;
當矩陣是對稱的方陣,它的奇異值分解就是特征值分解,即特征值分解是奇異值分解的一個特例。
機器學習:
3.SVM的核函數?SVM離群點?
答:
核函數:一個低維空間向高維空間的映射,這個映射可以把低維空間線性不可分的變成線性可分的。可能面臨維度災難,使用對偶和核技巧可以避免顯示的特征變換。
計算兩個向量在隱式映射過后的空間中的內積的函數叫做核函數,核函數能簡化映射空間中的內積運算,且SVM 里需要計算的地方數據向量總是以內積的形式出現的。避開了直接在高維空間中進行計算,而結果卻等價。
離群點:采用軟間隔的方法,允許一些樣本不滿足約束,但是這種樣本越少越好,比如采用l0,1損失函數,有些離群點計算的時候不計入損失,或者以一定的權重計入損失等。
4.過擬合和欠擬合?解決方案?
答:
判斷:根據學習誤差曲線,訓練集誤差增大測試集誤差減小說明在學習,屬於欠擬合。測試集誤差變大,訓練集誤差很小屬於過擬合。
過擬合
定義:學習到的模型在訓練樣本中表現的過於優越,導致在測試集或驗證集上泛化能力差表現不佳。即學習得過於徹底,將噪聲也學到了。
情況:參數過多;模型過大;訓練樣本過少;數據不純;
措施:加入正則項;dropout;(訓練的時候讓神經元以一定的概率不工作)擴大訓練樣本集;清洗數據;
欠擬合
定義:模型不能很好的捕捉到數據特征,不能很好的擬合數據。
情況:特征不夠好或者維度不夠,訓練時間不夠
措施:更換更好的特征;增加網絡復雜度;減少正則化參數;增大訓練時間
5.logistic回歸?
答:見 https://www.cnblogs.com/EstherLjy/p/9343616.html
圖像方面:
6.形態學操作?
答: 見 https://www.cnblogs.com/EstherLjy/p/9348047.html%20
7.邊緣檢測算法?
答:見 https://www.cnblogs.com/EstherLjy/p/9347919.html
深度學習方面:
8.sigmod函數的優缺點?
答:見 https://www.cnblogs.com/EstherLjy/p/9343487.html
9.有自己開發的layer嗎?
10.偏差和方差?
答:
誤差=偏差+方差,偏差表示的是輸出與Gt的誤差,即模型的准確度,方差指的是模型在不同數據集上的預測值與所有數據集平均預測值之間的差異,即模型穩定性。
11.resnet?
答:見 https://www.cnblogs.com/EstherLjy/p/9350118.html
12.Inception?
答: 見 https://www.cnblogs.com/EstherLjy/p/9350118.html
目標檢測方面:
13.faster RCNN的anchor機制?
答:見 https://www.cnblogs.com/EstherLjy/p/9328996.html
14.Mask RCNN?
答: 見 https://www.cnblogs.com/EstherLjy/p/9328996.html
15.單階段小目標漏檢?
答:
樣本不均衡(可通過給負樣本加權重和控制負樣本數量來改善);拍攝時目標比較小丟失信息(模糊等,邊緣信息等),不能很好的學習;丟進網絡也是越來越小,更小可能被視為噪音。
16.selective search?
答:見 https://www.cnblogs.com/EstherLjy/p/9328996.html
小聲bb:和科大訊飛剛好一個后腳要結束一個前腳要開始,還重合了一分鍾。
一面已過,二面等面了再來更。
-----------------------------------------------------------------
二面來了。已掛。
概況:二面的面試官仿佛一個zz,面試官不是做目標檢測的,全程問我文字檢測的問題,感覺他並不知道神經網絡是什么,而且問的感覺都是**問題,解釋了他還聽不懂,簡直一個杠精。各種打斷別人說話,一句話沒說超過三秒過。
建議:這種沒啥建議了。
問題:1.文字檢測你是怎么做的呢?(首先用基礎網絡提取特征然后....)
2.哎我打斷,神經網絡怎么就能知道他是不是文字呢?(光這個問題解釋了十分鍾硬是聽不懂....這不是神經網絡常識嗎?不是你喂什么他出什么嗎??)
3.哎我打斷,神經網絡你就這樣搞搞技術壁壘呢?(在於神經網絡的設計,比如架構等,如變形卷積,inception,resnet)
4.哎我打斷,不用神經網絡你怎么做?(傳統方法先提取連通分量再....)
5.哎我打斷,怎么提取連通分量?(這基於一個觀察說文字一般是連通的...)
6.哎我打斷,文字怎么就是連通的?少數民族文字就不是啊?(您說的對,我指的是大部分的,針對中英文,其他的....)
7.哎我打斷,連通的也不一定是文字啊,比如雜草就不是啊?(您說的對,所以我說的這是第一階段,提取連通分量,后面會采用分類器過如svm濾....)
8.哎我打斷,svm只是一種手段,跟神經網絡一樣,特征你怎么提?(文字有一定的特性,如寬高比等)
9.哎我打斷,電線桿也是寬高比符合啊?(您說的對,所以后面會訓練過濾呀)
10.哎我打斷,你又要用分類器,我覺得你掉入神經網絡里面了.......(卧槽?不用分類器你搞錘子哦?)
....................
小聲bb: 堅定了不去這家公司的信念。
----------------------------------------------------------------
兩公司提前批已掛,秋招均未投簡歷,此文終結。