在隨機信號分析中,不相關、正交、統計獨立等是非常重要的,這里進一步討論各自的嚴格概念和相互關系。
當兩個隨機過程保持統計獨立時,它們必然是不相關的,但反過來則不一定成立,即不相關的兩個隨機過程不一定能保持統計獨立,唯有在高斯隨機過程中才是例外。這就是說,從統計角度看,保持統計獨立的條件要比不相關還要嚴格。
另外,在確知信號分析中已知,內積為零可作為兩個信號之間正交的定義。對於隨機過程來說,除了互協方差函數外,還要求至少其中有一個隨機過程的均值等於零,這時兩個隨機過程才互相正交。因此正交的條件滿足了,不相關的條件就自然滿足,但是反過來就未必然。可見正交條件要比不相關條件嚴格些。如果統計獨立的條件能滿足,則正交條件也自然滿足,但反過來也不一定成立。因此統計獨立的條件最嚴格。
1.統計獨立必不相關
兩隨機變量或者兩個隨機過程,若它們的互相關或互相關函數等於兩者均值之積;或者協方差和相關系數都等於0,則它們之間不相關。三個條件實質相同。
統計獨立比不相關含義更嚴格,前者表明一個隨機變量的任一取值的變化都不會引起另一個變量的任何取值的變化;而不相關則是統計平均意義下相互無影響,即間或存在的相互影響,經集合平均后顯示不出來,宏觀影響為0。
但是這一結論對於兩個高斯變量或過程卻是一例外。
2.不相關與正交關系
在通信系統中,總是力圖按不相關或正交關系來設計在同一信道隨機發送的二元或多元信號。對於多數通信信號以及噪聲來說,基本上均值都為0,於是在實際應用中,不相關與正交沒有本質區別。
統計獨立的充要條件是兩個隨機變量的聯合概率密度分布函數等於它們各自概率密度分布函數的乘積。
即p(f1,f2)=p(f1)p(f2), 很容易證明,統計獨立必然導致不相關。
一些隨機現象經過大量觀察,在它們出現的結果之間不呈現顯著聯系,因此認為這些隨機現象的規律性相互獨立,稱為統計獨立性。
在機率論里,說兩個事件是獨立的,直覺上是指一事件的發生不會影響到另一事件發生的機率。例如,骰子擲出“6”的事件和其在下一次也擲出“6”的事件是相互獨立的。類似地,兩個隨機變量是獨立的,若其在一事件給定觀測量的條件機率分布和另一事件沒有被觀測的機率分布是一樣的。例如,第一次擲骰子擲出的數目和第二次會出現的數目是相互獨立的。
相關性是指當兩個因素之間存在聯系的時候,一個典型的表現是:一個變量會隨着另一個變量變化。相關又會分成正相關和負相關兩種情況。舉例說明,下雪外面就會變冷,這是正相關。出太陽就不會下雨,這是負相關。
相關系數:考察兩個事物(在數據里我們稱之為變量)之間的相關程度。
如果有兩個變量:X、Y,最終計算出的相關系數的含義可以有如下理解:
(1)、當相關系數為0時,X和Y兩變量無關系。
(2)、當X的值增大(減小),Y值增大(減小),兩個變量為正相關,相關系數在0.00與1.00之間。
(3)、當X的值增大(減小),Y值減小(增大),兩個變量為負相關,相關系數在-1.00與0.00之間。
相關系數的絕對值越大,相關性越強,相關系數越接近於1或-1,相關度越強,相關系數越接近於0,相關度越弱。
通常情況下通過以下取值范圍判斷變量的相關強度:
相關系數 0.8-1.0 極強相關
0.6-0.8 強相關
0.4-0.6 中等程度相關
0.2-0.4 弱相關
0.0-0.2 極弱相關或無相關
http://zh.wikipedia.org/wiki/%E7%B5%B1%E8%A8%88%E7%8D%A8%E7%AB%8B