1.Bonferroni校正:用0.05除去多重比較的數目,得到一個比較低的閾限。(苛刻,只在數目比較少時用)
2.錯誤發現率(False Discovery Rate,FDR)校正:將所有樣本(voxel)的p值進行從小到大排序,找到第n個p值超過n*0.05/N。如果樣本里p值低的voxel數量越多,n就越大,最終校正的p也越高(接近0.05),設想如果所有的p值都小於0.05,那么n=N,校正的p還是0.05;如果只有1個p值很小,那么校正的p=0.05/N,就是經典的bonferroni校正。
3.cluster分析:采用蒙特卡洛的方法生成零分布,foci(坐標,應該是和真是坐標數目相同)隨機分布在全腦中,每一次都會有一個全腦的激活圖,經過非矯正或者FDR的閾限后,把cluster的最大值取出作為一個case,然后隨機有多少次就有多少個這樣的case,構成了null distribution。然后比較實際的激活結果里面的cluster和這個分布中前5%大的cluster(cluster閾限),去掉小於null分布前5%的cluster,就是cluster校正的結果。所以voxel有一個閾限設定,cluster也有一個閾限設定
4.Permutation校正:通過對條件和具體值進行任意的匹配,得到的是一個隨機分布的零分布,考察得到的真實數據在這一分布中的位置,進行一個排序(permutation),如果在分布的兩極(單側5%或者雙側2.5%),則認為真實數據不屬於隨機的零分布,而是符合預期的假設