newrbe
x->表示向量
1.這個形式的神經網絡不需要訓練,
2.net模型中會保存全部訓練數據即矩陣 IW中,新輸入的樣本p-> 會跟IW矩陣中的每個樣本計算距離, radbas(||dist||.* b->)后 形成a-> 所以向量a->的元素個數等於訓練樣本的個數
LW矩陣 的元素個數是 S2XS1, S2是輸出個數,如果是1的情況下,LW的列數 就是S1即 a-> 向量的元素個數 , 輸出這里直接是做了線性回歸。
所以根據這個模型可以看出 newrbe是不需要訓練,直接用的,同時看車訓練樣本需要全面,當然會占用比較大空間

function [w1,b1,w2,b2] = designrbe(p,t,spread) [r,q] = size(p); [s2,q] = size(t); w1 = p'; b1 = ones(q,1)*sqrt(-log(.5))/spread; a1 = radbas(dist(w1,p).*(b1*ones(1,q))); x = t/[a1; ones(1,q)]; w2 = x(:,1:q); b2 = x(:,q+1); end
創建代碼,里面的a1是訓練數據兩兩之間的距離矩陣--取radbas后的
然后x=t/[a1;ones(1,q)] 直接做矩陣除法(ones(1,q) 對應b參數),所以需要保證[a1;ones(1,q))是可逆的,
如果輸入一個訓練樣本,結果必定是完全對上的,因為上面的是精確解---矩陣直接除