【CV知識學習】Fisher Vector


在論文《action recognition with improved trajectories》中看到fisher vector,所以學習一下。但網上很多的資料我覺得都寫的不好,查了一遍,按照自己的認識陳述一下,望大牛指正。

 

核函數:

先來看一下《統計學習方法》里敘述的核函數的概念,

 

可以看到,核函數其實是一個內積,在SVM的公式可以提煉出內積的部分。數據在低維輸入空間可能線性不可分,而在高維希爾伯特空間可能線性可分的,因此會經過一個映射函數。事實上,內積中可以理解為相似性即距離。

 

Fisher核:

Fisher核與Fisher信息矩陣有關,Fisher信息矩陣的意義,在知乎上的答案有了解http://www.zhihu.com/question/26561604

 

最后,Fisher核與Fisher信息矩陣有關,得到:,而I就是信息矩陣,U就是Score Function。

 

Fisher Vector在圖像上的應用:

圖像在這里使用GMM去描述,而圖像采集的描述子是在全局范圍內的,因此,Fisher向量最后描述的也是全局的特征。一般步驟如下:

 

先隨機選擇數據集,去估計GMM的各個參數。Fisher向量應該是Score函數的聚集,但由於會應用到核函數,所以會乘上Fisher信息矩陣。

GMM模型為:

其中(熟悉GMM的人都很容易明白吧),

 

根據貝葉斯公式,定義描述子屬於第i個高斯模型的概率為:

 

各個參數的Score函數

 

Fisher信息矩陣的近似解為:

 

計算FV向量為:

 

最終的結果為:

 

需要注意的是,參數已經在第一步估計出來了。可以看到FV向量的好處是,它把各個大小不同描述子集轉化成大小一致的一個特征向量表述。

 

從原始特征到FV向量的算法表述如下:

 

 

其實也沒有自己想的東西,本來以為昨晚理解的挺好,今天早上再來想了想,不對啊……直接把知道的寫上吧,額,好多博客都沒寫到點上,哎~~~~~會用就好了~~~~~~~~~~~  T_T

 

 

==============  04/12/2016 更========================== 

 

忽然有點明白了,之前一直在想為什么Fisher Vecotr可以作為特征,首先看了兩個blog:知乎專欄CSND

最關鍵的地方是,fisher vector之所以可以用來做特征分類,還是因為利用了fisher核,注意到它的形式為,而I就是信息矩陣,U就是Score Function。

而fisher 向量的歸一化后的每一項,都是,即信息矩陣的-1/2次方 * score fucntion。如果兩個fisher vector做內積,正好可以得到fisher 核

其中信息矩陣為

score function 為

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM