【轉】Fisher Vector 通俗學習


原文鏈接:http://blog.csdn.net/ikerpeng/article/details/41644197

fisher vector 一般流程:http://www.voidcn.com/blog/u013089961/article/p-4206874.html

fisherVector\BOW\VLAD的對比:http://yongyuan.name/blog/CBIR-BoF-VLAD-FV.html

                http://www.yidianzixun.com/07maP9cK

fisherVector一般要用到GMM,GMM的介紹和訓練如下:http://www.cnblogs.com/mmziscoming/p/5750849.html

GMM的訓練又用到EM算法,其算法講解如下:http://blog.csdn.net/zouxy09/article/details/8537620/

 

總結:本質上,Fisher vector是用似然函數的梯度vector來表達一幅圖像。

1、首先從圖片上提取出特征描述子(如sift特征),令這些特征描述子符合某混合高斯分布(GMM),並訓練出GMM參數;

2、既然這些特征描述子符合某GMM,則可以寫出該圖片(用其特征描述子表示)在某GMM下的概率函數,並可以寫出其似然函數;

3、用似然函數的梯度vector來表達這幅圖像,這樣就把長度不一的圖片特征向量轉化為長度相等了。

4、fisher vector的維度是(2*D+1)*k-1維,D是特征描述符的維度(sift是128維),K是GMM中高斯模型的個數。

 

5、Fisher Vector和高斯分布對比

我們將一張圖近似為一個高斯分布,由這個高斯分布來表示這張圖像。假設我們是做目標的檢測,那么當你得到一個有相同的高斯分布的圖的時候你就可以判斷出這就是那個目標了。但實際的情況是卻不一定是這樣的,我們看一張圖:

                                                                          

這兩張圖上特征點的分布在黑色的區域,二者的分布卻可以一樣(當然我畫的不是很好)!

由此,我們知道,在高斯分布的基礎上我們再找到變化的方向,我們便可以更加准確的表示這一張圖!

6、fisher vector與bag of words的對比

(1)BOW統計的是0階信息,也就是word的統計個數,FV統計的是0,1,2階信息;

(2)BOW一般跟非線性分類器效果比較好,FV跟線性分類器就可以了,因此速度更快;

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM