[轉]多目標進化算法的性能指標總結 (一)


多目標進化算法的性能指標總結 (一)

覺得有用的話,歡迎一起討論相互學習~

我的微博我的github我的B站
轉載自:
https://blog.csdn.net/qq_40458671/article/details/88601195
注:此次總結的只是多目標性能評價指標中很少的一部分。

一、指標的常見分類方法:

1.考慮指標同時能評估的解集數目(1個或2個解集),可將指標分為一元和二元指標。

一元指標:接受一個解集作為參數進行評估。
二元指標:接受兩個解集作為參數,通過比較兩個解集的支配關系或其他方面,給出哪個解集更好的判斷。

2.多目標進化算法解集的性能評價指標主要分為三個方面:

1)解集的收斂性評價(convergence), 反映解集與真實Pareto前沿之間的逼近程度(距離)。一般我們希望所得解集距離PF盡可能近。
2)解集的均勻性評價(uniformity / evenness), 體現解集中個體分布的均勻程度。一般我們希望所得解集在PF上分布盡可能均勻。
3)解集的廣泛性評價(spread), 反映整個解集在目標空間中分布的廣泛程度。一般我們希望所得解集在PF上分布盡可能廣、盡可能完整地表達PF。

也有一些學者,不這樣分類,分為基數指標,收斂性指標,和多樣性/分布性指標,認為多樣性包括均勻性(evenness)和廣泛性/范圍(spread),具體如下:

1)基數指標:評估解集中存在的解的個數。
2)收斂性指標(精確度指標):評估解集到理論帕累托最優前沿的距離(逼近程度)。
3)多樣性指標:包括評估解集分布的均勻性(evenness)和廣泛性/范圍(spread)。均勻性體現解集中個體分布的均勻程度;廣泛性反映整個解集在目標空間中分布的廣泛程度。

二、常用性能評價指標回顧

1.GD:解集P中的每個點到參考集P *中的平均最小距離表示。GD值越小,表示收斂性越好。

在這里插入圖片描述
其中P是算法求得的解集,P _是從PF上采樣的一組均勻分布的參考點,而dis(x,y)表示解集P中的點y和參考集P_中的點x之間的歐式距離。

優點:相比HV,計算代價是輕量級的。
缺點:1)僅度量解集的收斂性,無法評估多樣性;
2)需要參考集,使得這個測度很容易不客觀;

2.convergence metric γ:解集P中的每個點到參考集P *中的最小距離的平均值。(類似GD)

在這里插入圖片描述
其中P是算法求得的解集,P _是從PF上采樣的均勻分布的參考點集,而dis(x,y)表示參考集P_中的點x和解集P中的點y之間的歐式距離。

3.Spacing:度量每個解到其他解的最小距離的標准差。Spacing值越小,說明解集越均勻。

在這里插入圖片描述
其中表示第di個解到P中其他解的最小距離,d-表示所有di的均值。

缺點:僅度量解集的均勻性,而不考慮它的廣泛性。

4. diversity metric △:衡量所獲得的解集的廣泛程度。

在這里插入圖片描述
參數df和dl是極端解與所獲得的非支配集的邊界解之間的歐幾里德距;di 是所獲得的非支配解集中的連續解之間的歐幾里德距離;
d是di 的平均值。
假設最佳非支配前沿有N個解。使用N個解,有N-1個連續距離。當只有一個解,即N=1時,分母=分子。值得注意的是,這不是解可能的最壞情況。我們可以有一個場景,其中di 存在很大的差異。在這種情況下,度量可能大於1。因此,上述度量的最大值可以大於1.然而,良好的分布將使所有距離di 等於d並且將使得df=dl = 0(在非支配集合中存在極端解)。因此,對於最廣泛和均勻展開的非支配解集,△的分子將為零,使得度量值為零。對於任何其他分布,度量的值將大於零。
對於具有相同df和dl值的兩個分布,度量△在極端解中具有更高的值和更差的解的分布。

5.超體積指標(HV,Hypervolume):算法獲得的非支配解集與參照點圍成的目標空間中區域的體積。HV值越大,說明算法的綜合性能越好。

在這里插入圖片描述
代表δ表示 Lebesgue 測度,用來測量體積。 |S| 表示非支配解集的數目, vi表示參照點與解集中第 i 個解構成的超體積。
優點:1)同時評價收斂性和多樣性;
2)無需知道PF或參考集;
缺點:1)計算復雜度高,尤其是高維多目標優化問題;
2)參考點的選擇在一定程度上決定超體積指標值的准確性;

6.反轉世代距離(IGD,Inverted Generational Distance):每個參考點到最近的解的距離的平均值。IGD值越小,說明算法綜合性能越好。

在這里插入圖片描述
其中P是算法求得的解集,P _是從PF上采樣的一組均勻分布的參考點,而dis(x,y)表示參考集P_中的點x到解集P中的點y之間的歐式距離。

優點:1)可同時評價收斂性和多樣性;
2)計算代價小;
缺點:2)需要參考集;

7.C-metric解集覆蓋率:

在這里插入圖片描述
分子表示B中被A中至少一個解支配的解的數目;分母表示B中包含的解的總數。
C(A,B)=1表示B中所有解都被A中的一些解所支配;C(A,B)=0表示B中沒有解被A中的任一解所支配。

8.IGD-NS 注:為什么要識別非貢獻解呢?因為非貢獻解影響收斂

在這里插入圖片描述
P_是PF上均勻采樣的參考點集,P是算法獲得的解集,P’是P中的非貢獻解集。
公式的前一部分和IGD很相似,控制P的收斂性和多樣性;
第二部分是每個非貢獻解到參考集P_的點的最小距離之和。
因此,IGD-NS值越小,說明收斂和多樣性越好,且解集的非貢獻解盡可能少。

9.KD:衡量是否每個解集都至少包含一個與拐點相近的解或該解集是否包括全部拐點。

在這里插入圖片描述
其中d(vi,G)是K中的第i個真實拐點vi到G中最接近解之間的歐幾里得距離。
KD值越小,說明檢測拐點的能力越完整;
當所獲的解集覆蓋到所有的拐點時,KD=0。

三、參考集的缺陷:

不少指標在計算時都需要參考集,因為有參考集的存在,指標的客觀型就值得懷疑,如下圖所示。
在這里插入圖片描述
解集B肯定比A要好,可是因為選用了圖中的參考集。而且,絕大多數實際問題都沒參考集。

四、支配關系的缺陷:

在高維多目標里,很多解集或解都相互不支配,這時候支配關系這種東西就很雞肋了。


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM