人工神經網絡是黑箱模型嗎?


    自從人工神經網絡(ANN)在函數逼近、模式識別、建模仿真等領域的應用取得顯著成效以來,就一直遭受到一項指控:ANN is one kind of black box models!當然,這項“罪名”成立與否並無定論,但終究影響不好。如今,大部分應用者都認為ANN是黑箱模型。在ANN的捍衛者中,也有一部分人致力於“洗白”ANN,試圖告訴大家:ANN是white box model。

    本文的目的不是爭辯ANN到底是黑箱還是白箱,而是探討ANN的"黑"所指的涵義(畢竟無風不起浪)。

    ANN之所以被稱為是黑箱模型,主要的原因如下。

    對於某個具體的ANN模型的設計者來說,ANN的內部結構(例如隱含層的層數和每一層的節點數)是由他自己確定的;在確定了內部結構之后,需要通過輸入數據進行訓練,最后得到一個最佳模型。該模型不同層間的連接權重矩陣顯然也是可知的,通過連接權重矩陣可以計算出輸出變量對輸入變量的依賴關系(一般在兩層以上的ANN模型中,輸出變量對輸入變量的依賴關系都是非線性的)。那怎么說ANN是黑箱模型呢?

   正是因為在大部分情況下,輸出變量對輸入變量的依賴關系都是非線性函數的關系,函數表達式往往很復雜,所以設計者無法直觀地看出某個輸入變量對輸出變量的貢獻率是大是小(即貢獻率的大小沒有一個尺度來衡量),或者更一般地說,無法解釋非線性函數在物理世界中的現實意義。更甚者,ANN的規模(隱含層的層數和節點數)增大時,非線性函數的復雜度急劇增大。在這種情況下,即使得到了這個很復雜的關系函數,也如同一堆廢鐵。所以,有研究者試圖采用連接權重的貢獻度和相對貢獻率等指標[1],來對訓練出的權重矩陣進行修剪,剪去冗余的權重。但是這種方法治標不治本,只能應用於一個隱含層的ANN模型,即輸出變量對輸入變量的依賴關系是線性的;而且面對規模龐大的ANN模型時,計算這些指標所需的時間和空間復雜度急劇上升,吃力不討好。

    值得注意的是,對於應用者來說,ANN的透明化往往是指,連接權重矩陣的可視化。Ozesmi提出的神經網絡釋義圖已經被廣泛地用於ANN的可視化。[2]

 

參考文獻:

[1]姚立忠等. "神經網絡模型的透明化及輸入變量約簡". 計算機科學 Vol. 39 No. 09, 2012.09.

[2] Ozesmi et al. "An artificial neural network approach to spatial habitat modeling with interspecific interaction". Ecological Modelling, 1999.


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM