盲信號分離涉及到的相關概念
1、盲信號分離指的是從多個觀測到的混合信號中分析出沒有觀測的原始信號。通常觀測到的混合信號來自多個傳感器的輸出,並且傳感器的輸出信號獨立性(線性不相關)。盲信號的“盲”字強調了兩點:1)原始信號並不知道;2)對於信號混合的方法也不知道。在大多數的研究中 ,只討論線性混合模型,當混合模型為非線性時 ,一般是無法從混合數據中恢復源信號的 ,除非對信號和混合模型有進一步的先驗知識可資利用.
2、算法做出了如下的假定:
- 具有
個獨立的信號源
和
個獨立的觀察量
,觀察量和信號源具有如下的關系
,式子的含義是 m 個源信號通過 混合得到 n維觀測數據向量。其中
,其元素是各個傳感器得到的輸出;
,
是一個
的系數矩陣,其元素表示信號的混合情況,原問題變成了已知
和
的獨立性,求對
的估計問題。
- 假定有如下盲信號分離問題的提法是 :在 混合矩陣 A 和源信號未知的情況下 ,只根據觀測數據向量 x ( t) 確定分離矩陣 W ,使得變換后的輸出 y( t) = Wx ( t) 是源信號向量 s ( t) 的拷貝或估計,W是一個
系數矩陣,問題變成了如何有效的對矩陣W做出估計。
3、算法中涉及到的基本假設:
- 各源信號
均為零均值信號,實隨機變量,信號之間統計獨立。如果源信號
的概率密度為
,則
的概率密度為:
- 源信號數目
小於等於觀察信號數目
,即
。混合矩陣
是一個
的矩陣。假定
滿秩。
- 源信號中只允許有一個高斯分布,當多於一個高斯分布時,源信號變得不可分。
4、盲信號分離存在兩種不確定性或模糊性 :分離后信號順序排列和復振幅(幅值和初始相位) 的不確定性. 盲信號分離的不確定性主要表現為混合矩陣 A 的非完全辨識.
5、定義 1 兩個矩陣 M 和 N 稱為本質相等 ,並記作 N ,若存在一矩陣 G 使得
, 其中 G 是一廣義交換矩陣 ,並且其元素具有單位模。根據定義1盲信號分離問題也可敘述為 :只根據傳感器輸出x ( t) 辨識混合矩陣 A 的本質相等矩陣與/ 或恢復源信號.
6、文獻[1]證明了信號的盲可分離性 :對於各個元素相互獨立 ,並且只有一個高斯分量的信號向量 s 而言 ,若 y = Cs (其中 C 是一任意可逆矩陣) 的元素相互獨立 ,則 y 是 s 的一個拷貝.
7、對信號分量 si( t) , 歸一化峰度定義為,對於高斯信號 ,其歸一化峰度等於零. 若
> 0 , 則稱si ( t) 為超高斯信號 ;若
< 0 , 則 si( t) 為亞高斯信號。
8、定義2 令 A = A ( x) 是混合矩陣 A 的某個批處理估計器. 若對任意可逆矩陣 M 恆有A ( Mx) = M A ( x) 則稱估計器 A 是等變化的 ,且稱作等變化條件.等變化條件另一種表述方式:令 W ( t) 是一盲信號分離算法求得的分離矩陣 ,且 C(t) = W(t)A 是分離與混合的合成系統 ,則算法是等變化的 ,若 C( t) 滿足
,式中 H( C( t) s ( t) ) 是矩陣乘積 C ( t) s ( t) 的矩陣函數 ,它與混合矩陣 A 和分離矩陣 W( t) 無關.
9、假定源信號的估計為 s ( t) = A- 1X( t) , 其中 A = A(x)是混合矩陣 A 的等變化估計器 ,則容易證明,即如果信號分離算法具有等變化性 ,則該算法的信號分離性能與混合矩陣(即信號傳輸的信道) 完全無關 ,只決定於原始信號 ,這一性能稱為均勻性能.
10、盲信號分離已有許多的算法 ,這些算法大致可分為以下三類(后兩種方法等價) :
- 信號經過變換后 ,使不同信號分量之間的相依性 ( de2pendency) 最小化. 這類方法稱為獨立分量分析 ,由 Comon 於1994 年提出.
- 利用非線性傳遞函數對輸出進行變換 ,使得輸出分布包含在一個有限的超立方體中;然后熵的最大化將迫使輸出盡可能在超立方體中均勻散布. 這類方法稱為熵最大化方法 ,是 Bell 與 Sejnowski 於 1995 年提出的.
- 非線性主分量分析是線性主分量分析方法的推廣 , 由Oja 與 Karhumen 等人於 1994 年提出.
獨立分量分析
1、獨立分量分析( ICA) 的基本目的就是確定線性變換矩陣 W ,使得變換后的輸出分量 yi( t) 盡可能統計獨立.
2、定義 3 輸出向量 y 的對比函數記作 ,定義為將 y的概率密度分布集合映射為一實值函數的算子
,並且映射函數
滿足下列條件 :(1) 若向量 y 的元素 yi改變排列位置 ,則函數
保持不變 ,即對所有交換矩陣 P 恆有
;(2) 若 y 的元素 yi改變“尺度”時函數
保持不變 ,即對所有可逆對角矩陣 D 恆有
.
3、幾種典型的獨立分量分析算法:
- 隨機梯度算法 :用瞬時或隨機梯度代替式
的真實梯度 ,即得到由 Bell 和 Sejnoeski提出的隨機梯度算法為
式中η(t) 為學習速率或步長. 這一算法的主要缺點是 :收斂速度慢 ,同時由於涉及分離矩陣 W( t) 的求逆 ,一旦 W ( t) 在更新過程中條件數變差 ,算法就可能發散.
自然梯度算法 :當式 中的隨機梯度
用自然梯度
代替后 ,即得自然梯度算法如下 :W ( t + 1) = W ( t) +η( t) ( I - <( y( t) ) yT( t) ) W ( t) (17)式中 ,非線性變換函數
這里κi3= E{ y3i , k} 及 κi4= E{ y4i , k} - 3 分別表示 yi的偏度和峰度 ,而ai (κi3,κi4) = -12κi3+94κi3κi4(19 a)βi(κi3,κi4) = -16κi4+32(κi3)2+34(κi4)2(19 b)偏度和峰度用下面的公式更新 :κi3 , k + 1=κi3 , k- u·T·(κi3 , k- y3i , k) (20)κi4 , k + 1=κi4 , k- u·T·(κi4 , k- y4i , k+ 3) (21)自然梯度算法最早是 Cichocki 等人 1994 年提出的[13 ], 后來 Amari 等人[2 ,3 ,48 ]從理論上證明了它的有效性.(3) EASI 算法 :1996 年 ,Cardoso 和 Laheld[9 ]
非線性主分量分析
【1】Cao X R ,Liu R W. A general approach to blind source separation [J ] .IEEE Trans. Signal Processing ,1996 ,44 :562 - 571.