灰狼算法:
灰狼优化算法(Grey Wolf Optimizer,GWO)由澳大利亚格里菲斯大学学者 Mirjalili 等人于2014年提出来的一种群智能优化算法。该算法受到了灰狼捕食猎物活动的启发而开发的一种优化搜索方法,它具有较强的收敛性能、参数少、易实现等特点。近年来受到了学者的广泛关注,它己被成功地应用到了车间调度、参数优化、图像分类等领域中。
理解算法思想方面主要参考了原始论文,以及以下的博客
https://www.pianshen.com/article/35241673990/
https://blog.csdn.net/haha0332/article/details/88805910
https://www.it610.com/article/1288128297732976640.htm
https://blog.csdn.net/hba646333407/article/details/107297509
我个人在学习过程中,主要的困惑在于原论文中位置向量xp的获取:


第一种 第二种
因为如果位置已知,那还为什么要优化,觉得很奇怪。
后面查阅第一篇博客才理解,两种定义式中,第一种(左图)是从想法出发(如果知道位置向量就好了),第二种(右图)其实是回到现实,现实中不可能知道猎物的位置向量,因此这里引出了灰狼的一个核心想法:将xp用三只头狼的信息估计出来,等效代替,理解了这一点,其他的细节都清楚了。
之后学习源码,由于笔者的MATLAB基础不深厚,因此顺便总结了源代码的一些MATLAB用法:
rand(m,n)%返回m行n列的矩阵,矩阵中每一个数都是(0,1)间的随机数。
A(i,:)%返回矩阵A的第i行
A(:,i)%返回矩阵A的第i列
@f %函数句柄,表示调用此函数
size(A,1)%返回矩阵A的行数
size(A,2)%返回矩阵A的列数
axis tight%使边框贴近曲线
grid on%画网格线
box on%图形边框
legend('GWO') %标注字符串到图中
另外一些值得总结的地方在于函数实现过程中的一些细节
1.遍历Position矩阵的行,并确定当前的α、β、γ狼
2.初始化以及调用时行列中代表的含义
源代码以及二者的示意图如下
% Main loop
while l<Max_iter
for i=1:size(Positions,1)
% Return back the search agents that go beyond the boundaries of the search space
Flag4ub=Positions(i,:)>ub;
Flag4lb=Positions(i,:)<lb;
Positions(i,:)=(Positions(i,:).*(~(Flag4ub+Flag4lb)))+ub.*Flag4ub+lb.*Flag4lb;
% Calculate objective function for each search agent
fitness=fobj(Positions(i,:));
% Update Alpha, Beta, and Delta
if fitness<Alpha_score
Alpha_score=fitness; % Update alpha
Alpha_pos=Positions(i,:);
end
if fitness>Alpha_score && fitness<Beta_score
Beta_score=fitness; % Update beta
Beta_pos=Positions(i,:);
end
if fitness>Alpha_score && fitness>Beta_score && fitness<Delta_score
Delta_score=fitness; % Update delta
Delta_pos=Positions(i,:);
end
end
a=2-l*((2)/Max_iter); % a decreases linearly fron 2 to 0
% Update the Position of search agents including omegas
for i=1:size(Positions,1)
for j=1:size(Positions,2)
r1=rand(); % r1 is a random number in [0,1]
r2=rand(); % r2 is a random number in [0,1]
A1=2*a*r1-a; % Equation (3.3)
C1=2*r2; % Equation (3.4)
D_alpha=abs(C1*Alpha_pos(j)-Positions(i,j)); % Equation (3.5)-part 1
X1=Alpha_pos(j)-A1*D_alpha; % Equation (3.6)-part 1
r1=rand();
r2=rand();
A2=2*a*r1-a; % Equation (3.3)
C2=2*r2; % Equation (3.4)
D_beta=abs(C2*Beta_pos(j)-Positions(i,j)); % Equation (3.5)-part 2
X2=Beta_pos(j)-A2*D_beta; % Equation (3.6)-part 2
r1=rand();
r2=rand();
A3=2*a*r1-a; % Equation (3.3)
C3=2*r2; % Equation (3.4)
D_delta=abs(C3*Delta_pos(j)-Positions(i,j)); % Equation (3.5)-part 3
X3=Delta_pos(j)-A3*D_delta; % Equation (3.5)-part 3
Positions(i,j)=(X1+X2+X3)/3;% Equation (3.7)
end
end
l=l+1;
Convergence_curve(l)=Alpha_score;
end

