引用於:https://blog.csdn.net/u010195841/article/details/69257897
overcoming catastrophic forgetting in neural networks
出處:2017 Jan 25 PNAS(proceedings of the national academy of sciences)
作者:deepmind團隊 具體作者就不一一表述
deepmind團隊是深度學習應用方向最厲害的團隊,隸屬於google。
部分翻譯:
如今深度神經網絡有個很難以解決的問題,就是持續學習(continual learning)。人腦的神經元數量是有限的,故而在人腦的整理學習過程中,不會出現應對一個新的問題就重新規划問題,而是對已有的神經元組合進行修改,使之能適應於持續學習。
這篇文章就是根據生物學上的突破(synaptic consolidation突觸整合),將已有的深度神經網絡進行修改,增加參數,使之能更好的適用於人工神經網絡的持續學習。
Abstract
The ability to learn tasks in a sequential fashion is crucial to the development of artificial intelligence. Neural networks are not, in general, capable of this and it has been widely thought that catastrophic forgetting is an inevitable feature of connectionist models. We show that it is possible to overcome this limitation and train networks that can maintain expertise on tasks which they have not experienced for a long time. Our approach remembers old tasks by selectively slowing down learning on the weights important for those tasks. We demonstrate our approach is scalable and effective by solving a set of classification tasks based on the MNIST hand written digit dataset and by learning several Atari 2600 games sequentially
從摘要中我們可以得到幾點信息:
(1)順序學習能力是人工智能的發展的攔路虎;
(2)災難性遺忘是網絡結構的必然特征(catastrophic forgetting);
(3)順序學習的定義,即根據任務A訓練網絡模型后,再根據任務B訓練網絡模型,此時對任務A進行測試,還可以維持其重要內容;
(4)它們對於災難性遺忘提出了一個改進型的算法;
(5)改進型算法的測試集有兩個,MINST和Atari。
Introduction
Introduction太長了,就不粘具體的內容,只給出具體有用的信息:
(1)為什么人工神經網絡的連續學習會出現問題?
由於當前的人工神經網絡對順序任務的學習方式是先訓練任務A,然后再訓練任務B,任務A的參數與任務B的參數基本無關,使得當任務B訓練完成后,該網絡無法給出任務A的結果。
(2)什么叫做災難消失?
在網絡順序訓練多重任務時,對先前任務的重要權重無法保留,稱之為災難性消失。
算法設計環節
這篇文章的算法設計叫做Elastic weight consolidation(EWC),重要的部分(算法設計)在我讀論文的時候,要求給出完整翻譯(有部分是意譯)。
In brains, synaptic consolidation enables continual learning by reducing the plasticity of synapses that are vital to previously learned tasks. We implement an algorithm that performs a similar operation in artificial neural networks by constraining important parameters to stay close to their old values. In this section we explain why we expect to find a solution to a new task in the neighborhood of an older one, how we implement the constraint, and finally how we determine which parameters are important.
在大腦中,通過減少突觸的可塑性,整合突觸能夠持續學習,這對先前的學習任務極為重要。我們在人工神經網絡中執行一個算法,具有同樣的性能,通過限制重要參數以便於保留以前的參數值。這部分中,我們解釋了三個問題:為什么我們期望在以前的學習任務周圍找出一個新任務的解決方案;怎么實施限制;最后怎么確定哪些參數是重要的。
In this work, we demonstrate that task-specific synaptic consolidation offers a novel solution to the continual learning problem for artificial intelligence. We develop an algorithm analogous to synaptic consolidation for artificial neural networks,which we refer to as elastic weight consolidation (EWC for short). This algorithm slows down learning on certain weights based on how important they are to previously seen tasks. We show how EWC can be used in supervised learning and reinforcement learning problems to train several tasks sequentially without forgetting older ones, in marked contrast to previous deep-learning techniques.
在我們的工作中,我們表明特定任務突觸整合方案提供了一種新奇的人工智能持續學習的解決方案。我們為人工神經網絡提出類似於突觸整合的算法,命名為elastic weight consolidation(EWC)。這個算法降低重要權重的學習率,重要權重的決定權是以前任務中的重要性。我們展示EWC怎樣被使用於監督學習和強化學習中,對比實驗是深度學習技術。
圖1:彈性權重整合(EWC)確保訓練任務B時同時記得任務A。訓練軌跡闡明概要的參數空間,參數范圍被很好的展示,任務A(灰色)、任務B(奶白)。經過第一次訓練后,參數集合是。如果我們訓練任務B單獨使用梯度下降(藍色箭頭),當我們在最小化任務B的損失函數時,會失去任務A訓練后的結果。另外,如果我們訓練過程中相同的系數(綠色箭頭)限制每一個權重,這樣限制就過於嚴重,我們只能記住任務A的訓練結果而無法訓練任務B。相反的,EWC找到任務B的解決方案,不會對任務A的參數進行重大改變(紅色箭頭)通過明確的計算任務A的權重如何重要。
算法總結:
(1)此算法的設計原理采用映射的效果,將任務A的部分重要參數空間仍然復用,其它參數映射到任務B的參數空間中,這種映射的采用方案為條件概率,使用先驗概率和后驗概率,將條件概率公式進行修改。具體的見下面的圖片(公式實在不好實現,所以進行手寫圖片的方式)
僅僅保存備用,如引用請標明原作者:https://blog.csdn.net/u010195841/article/details/69257897