介紹一個全局最優化的方法:隨機游走算法(Random Walk)


介紹一個全局最優化的方法:隨機游走算法(Random Walk)

1. 關於全局最優化求解

  全局最優化是一個非常復雜的問題,目前還沒有一個通用的辦法可以對任意復雜函數求解全局最優值。上一篇文章講解了一個求解局部極小值的方法——梯度下降法。這種方法對於求解精度不高的情況是實用的,可以用局部極小值近似替代全局最小值點。但是當要求精確求解全局最小值時,梯度下降法就不適用了,需要采用其他的辦法求解。常見的求解全局最優的辦法有拉格朗日法、線性規划法、以及一些人工智能算法比如遺傳算法、粒子群算法、模擬退火算法等(可以參見我之前的博客)。而今天要講的是一個操作簡單但是不易陷入局部極小值的方法:隨機游走算法。

2. 隨機游走算法操作步驟

f(x)f(x)是一個含有nn個變量的多元函數,x=(x1,x2,...,xn)x=(x1,x2,...,xn)為nn維向量。

  1. 給定初始迭代點xx,初次行走步長λλ,控制精度ϵϵ(ϵϵ是一個非常小的正數,用於控制結束算法)。
  2. 給定迭代控制次數NN,kk為當前迭代次數,置k=1k=1。
  3. 當 k<Nk<N時,隨機生成一個(1,1)(−1,1)之間的nn維向量u=(u1,u2,,un),(1<ui<1,i=1,2,,n)u=(u1,u2,⋯,un),(−1<ui<1,i=1,2,⋯,n),並將其標准化得到u=uni=1u2i√u′=u∑i=1nui2。令x1=x+λux1=x+λu′,完成第一步游走。
  4. 計算函數值,如果 f(x1)<f(x)f(x1)<f(x),即找到了一個比初始值好的點,那么kk重新置為1,將x1x1變為xx,回到第2步;否則k=k+1k=k+1,回到第3步。
  5. 如果連續NN次都找不到更優的值,則認為,最優解就在以當前最優解為中心,當前步長為半徑的NN維球內(如果是三維,則剛好是空間中的球體)。此時,如果λ<ϵλ<ϵ,則結束算法;否則,令λ=λ2λ=λ2,回到第1步,開始新一輪游走。

3. 隨機游走的代碼實現(使用Python)

這里使用的測試函數為f(r)=sin(r)r+1,r=(x50)2+(y50)2−−−−−−−−−−−−−−−−−√+e,0x,y100f(r)=sin(r)r+1,r=(x−50)2+(y−50)2+e,0≤x,y≤100,求f(r)f(r)的最大值。該函數是一個多峰函數,在(50,50)(50,50)處取得全局最大值1.15121.1512,第二最大值在其全局最大值附近,采用一般的優化方法很容易陷入局部極大值點。這里是求解函數的最大值問題,可以將其轉化為求目標函數的相反數的最小值問題。具體代碼如下:

  1.  
    #!/usr/bin/env python
  2.  
    # -*- coding: utf-8 -*-
  3.  
    # @Time : 2017/7/20 10:08
  4.  
    # @Author : Lyrichu
  5.  
    # @Email : 919987476@qq.com
  6.  
    # @File : random_walk.py
  7.  
    '''
  8.  
    @Description:使用隨機游走算法求解函數極值
  9.  
    這里求解:f = sin(r)/r + 1,r = sqrt((x-50)^2+(y-50)^2)+e,0<=x,y<=100 的最大值
  10.  
    求解f的最大值,可以轉化為求-f的最小值問題
  11.  
    '''
  12.  
    from __future__ import print_function
  13.  
    import math
  14.  
    import random
  15.  
    N = 100 # 迭代次數
  16.  
    step = 0.5 # 初始步長
  17.  
    epsilon = 0.00001
  18.  
    variables = 2 # 變量數目
  19.  
    x = [49,49] # 初始點坐標
  20.  
    walk_num = 1 # 初始化隨機游走次數
  21.  
    print("迭代次數:",N)
  22.  
    print("初始步長:",step)
  23.  
    print("epsilon:",epsilon)
  24.  
    print("變量數目:",variables)
  25.  
    print("初始點坐標:",x)
  26.  
    # 定義目標函數
  27.  
    def function(x):
  28.  
    r = math.sqrt((x[0]-50)**2 + (x[1]-50)**2) + math.e
  29.  
    f = math.sin(r)/r + 1
  30.  
    return -f
  31.  
    # 開始隨機游走
  32.  
    while(step > epsilon):
  33.  
    k = 1 # 初始化計數器
  34.  
    while(k < N):
  35.  
    u = [random.uniform(-1,1) for i in range(variables)] # 隨機向量
  36.  
    # u1 為標准化之后的隨機向量
  37.  
    u1 = [u[i]/math.sqrt(sum([u[i]**2 for i in range(variables)])) for i in range(variables)]
  38.  
    x1 = [x[i] + step*u1[i] for i in range(variables)]
  39.  
    if(function(x1) < function(x)): # 如果找到了更優點
  40.  
    k = 1
  41.  
    x = x1
  42.  
    else:
  43.  
    k += 1
  44.  
    step = step/2
  45.  
    print("第%d次隨機游走完成。" % walk_num)
  46.  
    walk_num += 1
  47.  
    print("隨機游走次數:",walk_num-1)
  48.  
    print("最終最優點:",x)
  49.  
    print("最終最優值:",function(x))

輸出結果如下:

  1.  
    迭代次數: 100
  2.  
    初始步長: 0.5
  3.  
    epsilon: 1e-05
  4.  
    變量數目: 2
  5.  
    初始點坐標: [49, 49]
  6.  
    1次隨機游走完成。
  7.  
    2次隨機游走完成。
  8.  
    3次隨機游走完成。
  9.  
    ......
  10.  
    16次隨機游走完成。
  11.  
    隨機游走次數: 16
  12.  
    最終最優點: [49.99999305065255, 50.00000102537616]
  13.  
    最終最優值: -1.15111524497

基本的隨機游走算法對於初始點比較敏感,可以看出,當初始點位於最優點附件時,可以很好地達到全局最優點;如果將初始點設置得離最優點較遠,比如設置初始點為(10,10)(10,10)時,其他參數不變,得到結果為:

  1.  
    隨機游走次數: 16
  2.  
    最終最優點: [10.042835581532445, 11.648866165553416]
  3.  
    最終最優值: -1.01720848747

可以發現,隨機游走陷入了局部最優點。當然,如果增大迭代次數NN以及初始步長λλ,可以在一定程度上增加尋優能力,比如設置N=3000,λ=10.0N=3000,λ=10.0,得到結果如下:

  1.  
    迭代次數: 3000
  2.  
    初始步長: 10.0
  3.  
    epsilon: 1e-05
  4.  
    變量數目: 2
  5.  
    初始點坐標: [10, 10]
  6.  
    1次隨機游走完成。
  7.  
    2次隨機游走完成。
  8.  
    3次隨機游走完成。
  9.  
    ......
  10.  
    20次隨機游走完成。
  11.  
    隨機游走次數: 20
  12.  
    最終最優點: [49.99999900055026, 50.0000023931389]
  13.  
    最終最優值: -1.15111697755

可以看出,當增大迭代次數以及初始步長之后,函數最終達到了全局最優點。但是迭代次數增加的代價則是運行時間的增加。總得來說,基本的隨機游走算法可以很好地達到全局最優點,但是有時會依賴於初始點的選擇。

4. 改進的隨機游走算法

  改進的隨機游走算法的不同之處是在於第3步,原來是產生一個隨機向量uu,現在則是產生nn個隨機向量u1,u2,,unu1,u2,⋯,un,nn是給定的一個正整數。將nn個ui(i=1,2,,n)ui(i=1,2,⋯,n)標准化得到u1,u2,,unu1′,u2′,⋯,un′,利用公式xi=x+λuixi=x+λui′,令min{x1,x2,,xn}min{x1,x2,⋯,xn}替換原來的x1x1,其他步驟保持不變。通過這種方式改進之后,隨機游走算法的尋優能力大大提高,而且對於初始值的依賴程度也降低了。令n=10n=10,初始點為(100,10)(−100,−10),N=100,λ=10.0,ϵ=0.00001N=100,λ=10.0,ϵ=0.00001,改進的隨機游走算法實現代碼如下:

  1.  
    #!/usr/bin/env python
  2.  
    # -*- coding: utf-8 -*-
  3.  
    # @Time : 2017/7/20 10:48
  4.  
    # @Author : Lyrichu
  5.  
    # @Email : 919987476@qq.com
  6.  
    # @File : improve_random_walk.py
  7.  
    '''
  8.  
    @Description:改進的隨機游走算法
  9.  
    這里求解:f = sin(r)/r + 1,r = sqrt((x-50)^2+(y-50)^2)+e,0<=x,y<=100 的最大值
  10.  
    求解f的最大值,可以轉化為求-f的最小值問題
  11.  
    '''
  12.  
    from __future__ import print_function
  13.  
    import math
  14.  
    import random
  15.  
    N = 100 # 迭代次數
  16.  
    step = 10.0 # 初始步長
  17.  
    epsilon = 0.00001
  18.  
    variables = 2 # 變量數目
  19.  
    x = [-100,-10] # 初始點坐標
  20.  
    walk_num = 1 # 初始化隨機游走次數
  21.  
    n = 10 # 每次隨機生成向量u的數目
  22.  
    print("迭代次數:",N)
  23.  
    print("初始步長:",step)
  24.  
    print("每次產生隨機向量數目:",n)
  25.  
    print("epsilon:",epsilon)
  26.  
    print("變量數目:",variables)
  27.  
    print("初始點坐標:",x)
  28.  
    # 定義目標函數
  29.  
    def function(x):
  30.  
    r = math.sqrt((x[0]-50)**2 + (x[1]-50)**2) + math.e
  31.  
    f = math.sin(r)/r + 1
  32.  
    return -f
  33.  
    # 開始隨機游走
  34.  
    while(step > epsilon):
  35.  
    k = 1 # 初始化計數器
  36.  
    while(k < N):
  37.  
    # 產生n個向量u
  38.  
    x1_list = [] # 存放x1的列表
  39.  
    for i in range(n):
  40.  
    u = [random.uniform(-1,1) for i1 in range(variables)] # 隨機向量
  41.  
    # u1 為標准化之后的隨機向量
  42.  
    u1 = [u[i3]/math.sqrt(sum([u[i2]**2 for i2 in range(variables)])) for i3 in range(variables)]
  43.  
    x1 = [x[i4] + step*u1[i4] for i4 in range(variables)]
  44.  
    x1_list.append(x1)
  45.  
    f1_list = [function(x1) for x1 in x1_list]
  46.  
    f1_min = min(f1_list)
  47.  
    f1_index = f1_list.index(f1_min)
  48.  
    x11 = x1_list[f1_index] # 最小f1對應的x1
  49.  
    if(f1_min < function(x)): # 如果找到了更優點
  50.  
    k = 1
  51.  
    x = x11
  52.  
    else:
  53.  
    k += 1
  54.  
    step = step/2
  55.  
    print("第%d次隨機游走完成。" % walk_num)
  56.  
    walk_num += 1
  57.  
    print("隨機游走次數:",walk_num-1)
  58.  
    print("最終最優點:",x)
  59.  
    print("最終最優值:",function(x))

輸出結果如下:

  1.  
    迭代次數: 100
  2.  
    初始步長: 10.0
  3.  
    每次產生隨機向量數目: 10
  4.  
    epsilon: 1e-05
  5.  
    變量數目: 2
  6.  
    初始點坐標: [-100, -10]
  7.  
    1次隨機游走完成。
  8.  
    2次隨機游走完成。
  9.  
    3次隨機游走完成。
  10.  
    .....
  11.  
    20次隨機游走完成。
  12.  
    隨機游走次數: 20
  13.  
    最終最優點: [49.999997561093195, 49.99999839875969]
  14.  
    最終最優值: -1.15111685082

可以發現,即使迭代次數N=100N=100不大,初始點(100,10)(−100,−10)離最優點(50,50)(50,50)非常遠,改進的隨機游走算法依然可以達到最優點。這說明了改進的隨機游走算法具有更強大的尋優能力以及對於初始點更低的依賴性。

注:經過多次試驗發現,無論是隨機游走算法還是改進的隨機游走算法,對於步長都是非常依賴的。步長λλ越大,意味着初始可以尋找最優解的空間越大,但同時也意味着更多的迭代次數(要搜索空間變大,尋找次數變多,相應時間自然要增加)。如果步長取得過小,即使NN很大,也很難達到最優解。無論對於隨機游走算法還是改進的隨機游走算法皆是如此。所以理論上步長λλ越大越好。但是步長越大,迭代總次數越高,算法運行時間越長。所以實踐中可以多試驗幾次,將λλ取得適當地大即可。


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM