不多說,直接上干貨!
直接來個現實的例子。某公司招聘....

2017年注定是深度學習火熱之年,同時,博主我也正值研二學年,廣深閱讀文獻搞科研,致力於大數據和機器學習深度學習領域。同時,分享后續這方面的干貨知識,大家一起成長和學習!
深度學習的概念源於人工神經網絡的研究,含多隱層的多層感知器就是一種深度學習結構。它是機器學習研究的一個新領域,模仿人腦機制來解釋數據。
目前“大數據”、“推薦系統”、“深度學習”是數字智能領域的熱點研究方向,相關的書籍也很火熱,比如“大數據”僅這兩年就出版了很多本,讓一般人看的眼花繚亂。
個性化推薦系統確實很會“察言觀色”,針對不同的用戶,主動推送不同的3D打印內容。但如果你認為它真正有了“人工智能”,那你就錯了。其實,這些推薦系統背后的運行原理主要基於概率統計、矩陣或圖模型,計算機對這些數值運算確實很擅長,但由於采用的只是“經驗主義”的實用方法(也即管用就行),而非以“理性主義”的原則真正探求智能產生的原理,所以距離真正的人工智能還很遠。AI(Artificial Intelligence),也就是人工智能,就像長生不老和星際漫游一樣,是人類最美好的夢想之一。雖然計算機技術已經取得了長足的進步,但是到目前為止,還沒有一台計算機能產生“自我”的意識。
直到深度學習(Deep Learning)的出現,讓人們看到了一絲曙光,至少,(表象意義下的)圖靈測試已不再是那么遙不可及了。2013年4月,《麻省理工學院技術評論》雜志將深度學習列為2013年十大突破性技術(Breakthrough Technology)之首。有了深度學習,推薦系統可以更加深度地挖掘你內心的需求,並從海量的3D模型庫中挑選出最合適的供你打印。
而深度學習(Deep Learning),恰恰就是通過組合低層特征形成更加抽象的高層特征(或屬性類別)。例如,在計算機視覺領域,深度學習算法從原始圖像去學習得到一個低層次表達,例如邊緣檢測器、小波濾波器等,然后在這些低層次表達的基礎上,通過線性或者非線性組合,來獲得一個高層次的表達。此外,不僅圖像存在這個規律,聲音也是類似的。比如,研究人員從某個聲音庫中通過算法自動發現了20種基本的聲音結構,其余的聲音都可以由這20種基本結構來合成!
在進一步闡述深度學習之前,我們需要了解什么是機器學習(Machine Learning)。機器學習是人工智能的一個分支,而在很多時候,幾乎成為人工智能的代名詞。簡單來說,機器學習就是通過算法,使得機器能從大量歷史數據中學習規律,從而對新的樣本做智能識別或對未來做預測。
而深度學習又是機器學習研究中的一個新的領域,其動機在於建立可以模擬人腦進行分析學習的神經網絡,它模仿人腦的機制來解釋數據,例如,圖像、聲音和文本。深度學習是無監督學習的一種。
深度學習之所以被稱為“深度”,是因為之前的機器學習方法都是淺層學習。深度學習可以簡單理解為傳統神經網絡(Neural Network)的發展。大約二三十年前,神經網絡曾經是機器學習領域特別熱門的一個方向,這種基於統計的機器學習方法比起過去基於人工規則的專家系統,在很多方面顯示出優越性。深度學習與傳統的神經網絡之間有相同的地方。二者的相同之處在於,深度學習采用了與神經網絡相似的分層結構:系統是一個包括輸入層、隱層(可單層、可多層)、輸出層的多層網絡,只有相鄰層節點(單元)之間有連接,而同一層以及跨層節點之間相互無連接。這種分層結構,比較接近人類大腦的結構(但不得不說,實際上相差還是很遠的,考慮到人腦是個異常復雜的結構,很多機理我們目前都是未知的)。
深度學習通過學習一種深層非線性網絡結構,只需簡單的網絡結構即可實現復雜函數的逼近,並展現了強大的從大量無標注樣本集中學習數據集本質特征的能力。深度學習能夠獲得可更好地表示數據的特征,同時由於模型的層次深(通常有5層、6層,甚至10多層的隱層節點,“深”的好處是可以控制隱層節點的數目為輸入節點數目的多項式倍而非多達指數倍)、表達能力強,因此有能力表示大規模數據。對於圖像、語音這種特征不明顯(需要手工設計且很多沒有直觀的物理含義)的問題,深度模型能夠在大規模訓練數據上取得更好的效果。尤其是在語音識別方面,深度學習使得錯誤率下降了大約30%,取得了顯著的進步。相比於傳統的神經網絡,深度神經網絡作出了重大的改進,在訓練上的難度(如梯度彌散問題)可以通過“逐層預訓練”來有效降低。注意,深度學習不是萬金油,像很多其他方法一樣,它需要結合特定領域的先驗知識,需要和其他模型結合才能得到最好的結果。當然,還少不了需要針對自己的項目去仔細地調參數,這也往往令人詬病。此外,類似於神經網絡,深度學習的另一局限性是可解釋性不強,像個“黑箱子”一樣不知為什么能取得好的效果,以及不知如何有針對性地去具體改進,而這有可能成為產品升級過程中的阻礙。
深度學習通過很多數學和工程技巧增加(堆棧疊加:Stack)隱層的層數,如果隱層足夠多(也就是深),選擇適當的連接函數和架構,就能獲得很強的表達能力。但是,常用的模型訓練算法反向傳播(Back Propagation)仍然對計算量有很高的要求。而近年來,得益於大數據、計算機速度的提升、基於MapReduce的大規模集群技術的興起、GPU的應用以及眾多優化算法的出現,耗時數月的訓練過程可縮短為數天甚至數小時,深度學習才在實踐中有了用武之地。
大數據這個時代背景上來。當坐擁海量的大數據,我們無論是做推薦系統還是3D模型檢索,以前用簡單的線性數學模型,一般也能獲得還不錯的結果。因此我們沾沾自喜起來,認為還是大數據更重要,而智能算法用簡單直接的就OK了,不需要也沒必要弄得很復雜。而當深度學習出現后,它的一系列輝煌戰績讓我們意識到:也許是時候該“鳥槍換炮”了。簡而言之,在大數據情況下,也許只有比較復雜的模型,或者說表達能力強的模型,才能充分發掘海量數據中蘊藏的有價值信息。更重要的是,深度學習可以自動學習特征,而不必像以前那樣還要請專家手工構造特征,極大地推進了智能自動化。
深度學習(即所謂“深度”)應大數據(即所謂“廣度”)而生,給大數據提供了一個深度思考的大腦,而3D打印(即所謂“力度”)給了智能數字化一個強健的軀體,三者共同引發了“大數據+深度模型+3D打印”浪潮的來臨。
擴展學習
