線性神經網絡--matlab神經網絡


  自適應線性元件20世紀50年代末由Widrow和Hoff提出,主要用於線性逼近一個函數式而進行模式聯想以及信號濾波、預測、模型識別和控制等。

  線性神經網絡和感知器的區別是,感知器只能輸出兩種可能的值,而線性神經網絡的輸出可以取任意值。線性神經網絡采用Widrow-Hoff學習規則,即LMS(Least Mean Square)算法來調整網絡的權值和偏置。

  只能解決線性可分的問題。

  與感知器類似,神經元傳輸函數不同。

 

二、LMS學習算法

  Widrow和Hoff在1960年提出自適應濾波LMS算法,也稱為Δ規則(Delta Rule)。LMS算法只能訓練單層網絡,

  定義某次迭代時的信號為  e(n)=d(n)-xT(n)w(n)

        其中n表示迭代次數,d表示期望輸出。這里采用均方誤差作為評價指標:

              

      

   Q是輸入訓練樣本的個數。線性神經網絡學習的目標是找到適當的w,使得均方差mse最小。mse對w求偏導,令偏導等於0求得mse極值,因為mse 必為正,二次函數凹向上,求得的極值必為極小值。

   實際運算中,為了解決權值w維數過高,給計算帶來困難,往往調節權值,使mse從空間中的某一點開始,沿着斜面向下滑行,最終達到最小值。滑行的方向使該店最陡下降的方向,即負梯度方向。

   實際計算中,代價函數常定義為

                               

   推導,梯度下降法。(推導有些復雜,可查閱書籍文獻)

    LMS算法步驟:與上節感知器類似。

  (1)定義參數和變量。

  (2)初始化

  (3)輸入樣本,計算實際輸出和誤差。

  (4)調整權值向量

  (5)判斷是否收斂

   學習率的選擇:

     1996年Hayjin證明,只要學習率η滿足   LMS算法就是按方差收斂的。

      其中,λmax是輸入向量x(n)組成的自相關矩陣R的最大特征值。往往使用R的跡(trace)來代替。矩陣的跡是矩陣主對角線元素之和。

      可改寫成  0<η<2/向量均方值之和。

    學習率逐漸下降:

    學習初期,用比較大的學習率保證收斂速度,隨着迭代次數增加,減小學習率保證精度,確保收斂。

    

五、線性神經網絡相關函數

    newlind--設計一個線性層

    net=newlind(P,T,Pi)

    相當於生成了神經網絡和訓練了神經網絡,不用再訓練。

 

    newlin--構造一個線性層

    相當於生成神經網絡,再更高的版本中廢棄,推薦使用的新函數是linearlayer.

    minmax(P) 求最大最小值。

    maxlinlr(P)求最大學習率。見上節。

    之后再用train訓練。

 

    purelin--線性傳輸函數。 輸出等於輸入。

    learnwh--LMS學習函數

    


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM