檢索一些文獻或者網頁資訊,記錄機器學習等人工智能領域的前沿技術介紹、展望、應用,了解我們國家的先進或不足,存在的卡脖子技術等(選取一種技術方向即可)
在加拿大溫哥華舉行的NeurIPS 2019會議上,機器學習成為最大的焦點。來自全世界各地的13000名研究人員探索了諸如神經科學、如何解釋神經網絡輸出,以及AI如何幫助解決現實世界中的重大問題等。
其中Google AI負責人Jeff Dean在研討會上進行演講,討論機器學習如何幫助應對氣候變化帶來的威脅以及機器學習如何重塑系統和半導體。
相信很多人對Google在使用ML創建機器學習半導體方面的早期工作、Google的BERT(NLP模型)對會話式AI的影響以及2020年值得關注的機器學習趨勢非常感興趣。VentureBeat就上述問題采訪了Jeff Dean,具體采訪內容篇幅過長,以自己的理解簡要說一下。
-
提到已經證明非常有效的一件事情,是芯片的專門化(相對例如通用CPU而言)用以執行一些並非完全通用的、某些特定類型的計算。Google已經從更嚴格的計算模型(例如GPU甚至TPU)中受益匪淺。這些模型更為嚴格,但實際上是根據機器學習計算需要做的事情而專門設計的。相對於通用CPU,這實際上帶來了相當多的性能優勢。
-
對於BERT來說,這是重要的一年。到處都是BERT,以及各種BERT。BERT之所以有趣,是因為它建立在其他研究成果不斷發展的基礎上,BERT的種類取決於一年前完成的Transformer工作。Transformer工作確實是在解決與基於LSTM的早期序列模型相同的問題。對在一堆文本(任意文本)上進行預訓練的BERT的微調,然后對關心的特定NLP任務進行微調,對於許多希望能夠解決的NLP問題來說,是一個很好的范例。
-
像現在這樣,BERT和其他模型可以很好地處理數百個作為上下文的單詞,但10000個單詞就處理不了。因此,這是一個有趣的方向。Jeff Dean認為
多模態模型
非常有趣,例如我們可以通過有趣的方式將文本與圖像,音頻或視頻相結合。Google已經做了一些工作,社區的其他成員也做了一些工作,這在將來將變得越來越重要。 -
Dean認為與人工智能相關的工作將是重要的。總的來說,世界將不斷提高技術水平,進行基礎研究,以提高我們在許多重要領域的能力,比如NLP或語言模型、視覺或多式化的東西。機器人是一個很難解決的問題--讓機器人在任意的環境中工作,就像一個大會議室里有椅子之類的東西,在過去的幾年里,Google在這方面取得了相當大的進步。