在論文《action recognition with improved trajectories》中看到fisher vector,所以學習一下。但網上很多的資料我覺得都寫的不好,查了一遍,按照自己的認識陳述一下,望大牛指正。
核函數:
先來看一下《統計學習方法》里敘述的核函數的概念,
可以看到,核函數其實是一個內積,在SVM的公式可以提煉出內積的部分。數據在低維輸入空間可能線性不可分,而在高維希爾伯特空間可能線性可分的,因此會經過一個映射函數。事實上,內積中可以理解為相似性即距離。
Fisher核:
Fisher核與Fisher信息矩陣有關,Fisher信息矩陣的意義,在知乎上的答案有了解http://www.zhihu.com/question/26561604。
最后,Fisher核與Fisher信息矩陣有關,得到:,而I就是信息矩陣,U就是Score Function。
Fisher Vector在圖像上的應用:
圖像在這里使用GMM去描述,而圖像采集的描述子是在全局范圍內的,因此,Fisher向量最后描述的也是全局的特征。一般步驟如下:
先隨機選擇數據集,去估計GMM的各個參數。Fisher向量應該是Score函數的聚集,但由於會應用到核函數,所以會乘上Fisher信息矩陣。
GMM模型為:
其中(熟悉GMM的人都很容易明白吧),
根據貝葉斯公式,定義描述子屬於第i個高斯模型的概率為:
各個參數的Score函數
Fisher信息矩陣的近似解為:
計算FV向量為:
最終的結果為:
需要注意的是,參數已經在第一步估計出來了。可以看到FV向量的好處是,它把各個大小不同描述子集轉化成大小一致的一個特征向量表述。
從原始特征到FV向量的算法表述如下:
其實也沒有自己想的東西,本來以為昨晚理解的挺好,今天早上再來想了想,不對啊……直接把知道的寫上吧,額,好多博客都沒寫到點上,哎~~~~~會用就好了~~~~~~~~~~~ T_T
============== 04/12/2016 更==========================
忽然有點明白了,之前一直在想為什么Fisher Vecotr可以作為特征,首先看了兩個blog:知乎專欄,CSND
最關鍵的地方是,fisher vector之所以可以用來做特征分類,還是因為利用了fisher核,注意到它的形式為,而I就是信息矩陣,U就是Score Function。
而fisher 向量的歸一化后的每一項,都是,即信息矩陣的-1/2次方 * score fucntion。如果兩個fisher vector做內積,正好可以得到fisher 核
其中信息矩陣為
score function 為