多重校正


1.Bonferroni校正:用0.05除去多重比較的數目,得到一個比較低的閾限。(苛刻,只在數目比較少時用)

2.錯誤發現率(False Discovery Rate,FDR)校正:將所有樣本(voxel)的p值進行從小到大排序,找到第n個p值超過n*0.05/N。如果樣本里p值低的voxel數量越多,n就越大,最終校正的p也越高(接近0.05),設想如果所有的p值都小於0.05,那么n=N,校正的p還是0.05;如果只有1個p值很小,那么校正的p=0.05/N,就是經典的bonferroni校正。

3.cluster分析:采用蒙特卡洛的方法生成零分布,foci(坐標,應該是和真是坐標數目相同)隨機分布在全腦中,每一次都會有一個全腦的激活圖,經過非矯正或者FDR的閾限后,把cluster的最大值取出作為一個case,然后隨機有多少次就有多少個這樣的case,構成了null distribution。然后比較實際的激活結果里面的cluster和這個分布中前5%大的cluster(cluster閾限),去掉小於null分布前5%的cluster,就是cluster校正的結果。所以voxel有一個閾限設定,cluster也有一個閾限設定

4.Permutation校正:通過對條件和具體值進行任意的匹配,得到的是一個隨機分布的零分布,考察得到的真實數據在這一分布中的位置,進行一個排序(permutation),如果在分布的兩極(單側5%或者雙側2.5%),則認為真實數據不屬於隨機的零分布,而是符合預期的假設


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM