2017年就這么悄無聲息地過去了。在工業界,2016年是推薦的元年,2017年是中國的AI元年,這意味着路漫漫其修遠兮~,而學術界永遠會超前於工業界,有些時候難免也會有些一廂情願……這些線索表明:①AI的發展非常迅速②學術界和工業界不同步的現象是共存的。過去的一年在nlp領域里,知識圖譜的發展是最為耀眼的,最為尷尬的仍然是chatbot的多輪對話。知識圖譜底層更高於RDF層次的語言被提出並進行研究中,關系抽取,遠程監督,深度學習與GAN的引入改進等等……chatbot的對話策略以及評價標准目前工業界仍然茫然~
nlp的核心是語義理解,語義理解,一方面要有更加豐富的,靈活的,自適應能力強的語義表示,另一方面,又要有好的理解用戶對話的策略,完全依賴某一種技術手段,比如無限誇大深度學習是不切實際的的天真想法。在語義理解方面,歷來都是歸納總結能力和演繹推理能力結合,也就是深度學習和語言規則,對話策略,狀態結合起來。本人相信,在語義理解方面,單純依靠聯結主義,很快就會遇到天花板,這也是近幾年知識圖譜,多輪對話的狀態跟蹤,上下文建模越來越重要的原因。前面提到的第一方面,其實就是用深度學習學習語言的語義向量表示,不同的是,我提出了豐富,靈活和自適應這些關鍵性的詞語。有什么不同呢,下文會有詳細論述。關於第二方面,由於本人剛接觸,不敢妄加評論,本paper主要論述第一方面,接下來進入重點。
關於第一方面,語義表示,獲取到它之后做相似度運算是nlp里經常遇到的場景,我就把他作為切入點。語義表示,我個人有一條主線:詞語——>句子——>文章。先說詞語,詞語是一句話的基本單元,每個詞語對句子的語義貢獻度是不同的,很多詞語有歧義現象,個別詞語是不常見詞,每個詞語在句子中都有固定的位置和順序,詞語與詞語之間存在着近義,反義和不相關的關系。聯結主義如何捕捉到這些特性是詞語語義表示的研究方向!如果能捕捉到這些特性,將大大增加語義理解能力,這點是毋庸置疑的。我們先說一下著名的word2vector,看看他捕捉到了哪些特性,看看他有哪些缺陷,如何尋求改進。首先可以肯定的是,w2v解決了詞語之間的近義,反義問題,但是並不完美。解決詞語之間的關系,主要依靠上下文,每個詞語的語義,與他的上下文概率分布是對應的,這是word2vector成功的地方,同時也是他失敗的地方:①對於多義詞,他的上下文概率分布是多個,不是單一的,而word2vector的建模,顯然是hard的②在建模時沒有考慮到上下文的順序,比如A:謝霆鋒的爸爸是誰?B:謝霆鋒是誰的爸爸?這兩句中的爸爸是不同的含義,w2v是無能為力的。除此之外,詞語的語義平滑處理,增加自適應能力也是必要的。另外,在訓練過程中,由於語料分布的不均勻性,必然會出現語義傾斜問題,這是不可抗拒的因素(在機器學習訓練中,數據傾斜是常見的現象)。基於以上問題,提出以下改進方案:①用高斯混合分布改進w2v的建模,讓獲取的詞語向量表示能夠做到上下文交叉②基於第一點,在此基礎上融合TF_IDF思想,進行語義平滑處理,並且在有必要的情況下進行降維處理,注意,我這里強調的是必要的情況下,也就是不是必須的,看場景,因為在情感分析中,他不是必須的③關於上下文的順序問題,目前還只能與RNN結合,並沒有成型的方案出來。以前在多義詞的理解上,更多的是用CRF進行序列化識別,大量依賴人工語義標注,如果能在語義表示上獲得突破,實現非監督學習的預測,是最佳的。比如蘋果這個詞,他可能是電腦,手機,logo等等。如果在一句話中,比如我想吃蘋果,用高斯混合分布模型做出的w2v就可以捕捉到蘋果的多個上下文的概率分布,吃是它的上文,這么簡短的句子,把他的上文吃和蘋果本身累加起來就可以了,不用全部累加,然后與電腦,水果,手機的詞的embedding做元積,運用非監督學習的方法就可以識別出來他的語義了。這是本人理論上的猜想,2018年將重點攻破這個難題。另外一方面,過去一年SIF的提出,有可借鑒的地方,用非監督學習方法做句子的語義表示,下面我們來說說句子語義表示。
關於句子的語義表示,大多是監督學習方法,而SIF是非監督學習方法。仍然以A:謝霆鋒的爸爸是誰?B:謝霆鋒是誰的爸爸?為例,如果用SIF做相似度運算的話,這兩句話的語義是相同的,是不是很失敗?沒錯,任何一個算法都有他的缺陷和適用場景!對於初學者來說,對於算法的理解,前期可能更加關注於公式推導上面,其實他不是算法的核心。本人認為,一個算法的提出,一定是先有場景和需求,或者是前面的算法有改進的空間。場景高於算法這點是毋庸置疑的。一個學者提出算法的初衷,靈感一定來自於前面的算法的積累,不是憑空產生的。因為SIF仍然依賴於w2v,也就是說SIF改進w2v的同時也繼承了他的缺點,呵呵。對於詞語上下文的順序,目前只能依賴於RNN。RNN模型里,最著名的就是LSTM和BiLSTM了,他的性能瓶頸是句子長度超過30步以后,記憶能力直線下降,原因是大家都會的BPTT。也就是LSTM只是緩解了RNN的記憶消失問題,沒有從根本上解決,因為這個東西無法根本解決。人在閱讀長文本的時候,也存在記憶消失,這是正常現象。說到這里,很多人想到了attention model,沒錯!過去一年,谷歌發布了Attention is all you need的paper,並且開源了代碼,關於Hierarchical attention的paper,dual global and local attention的研究都是熱點。在情感分析,個性化推薦,摘要領域里大放異彩。注意力的對齊模型的改進,進展也很迅速。global 和local attention分別捕捉句子的全局特征的局部特征,在語義理解方面是非常必要的。比如A用戶購買一條裙子后,發布了評論:整體情況還是可以的,雖然這條裙子有點兒小瑕疵,但是,我很喜歡她的顏色,感覺特別溫暖。然后給了4分。接下來,B用戶也買了同樣的裙子,評論:這條裙子穿起來特別舒服,真心喜歡它的布料,摸起來超好。然后也給了4分。大家有沒有注意到,前面提到2016年才是中國的搜索推薦元年,為什么這么晚?之前的傳統的基於內容的推薦,基於協同過濾的算法,FP_GROWTH增長樹,ALS矩陣分解等等算法,都無法真正做到個性化。why?目前的國內的個性化推薦,還很初級,挑戰還是很大的。我說一下我個人對個性化的看法。
關於個性化,我個人的理解是,比如A和B同時喜歡一個視頻,A用戶是喜歡它里面的插曲,比如蓮花爭霸里面的笑紅塵,B用戶喜歡里面的孫二娘的妹妹,長得漂亮。如果你用傳統的算法, 捕捉到了用戶瀏覽過這個視頻很多次,然后就天真地認為用戶喜歡武俠視頻,給他瘋狂地推薦這種類型的視頻,我想用戶是崩潰的,即使用戶有了類似於上面的評論,顯示行為,你做情感分析預測,也是失敗的。why?很多用戶使用了今日頭條時間久了都疲乏了,感覺推薦的東西都不太適合。現在我要正式地闡述一下本人對個性的理解:1.推薦的本質是用戶特征和商品特征的語義相似度問題,沒錯,我把它歸類於nlp中的語義相似度范疇。2.既然是語義相似度問題,如何捕捉到兩者的特征是關鍵,這關系到個性化。所謂個性化,本人認為,因為用戶是活人,不是死的,其興趣必然會變化,而且個人喜好不同,就像上面的,A打4分,B用戶也打4分,但是明顯B用戶非常喜歡那條裙子。個性化就是要捕捉到:①時序性:用戶的興趣變化②個人習慣特征:差異化。如果在特征抽取時把這兩點結合起來,分別得到用戶和商品的語義表示,做到動態變化的模型,然后做語義相似度運算,效果一定高於傳統的cf。比如前面提到的是視頻,如果能做到針對不同的用戶,抽取出不同的局部特征,比如A用戶喜歡里面的插曲,B用戶喜歡里面的演員顏值,還有雖然都是打4分,但是情感傾向明顯不同。這些問題,現有的技術可以嘗試和解決,只不過需要方案和技術整合。所以,場景需要還是第一位的。
再回到句子的語義表示問題,有了這些表示,接下來可以進行語義相似度運算了。過去一年,SIF和siamese lstm表現優異。先說場景:我們做句子語義相似度運算,達到的效果是相似度為85%,91%等等,並不是粗糙地分類為0和1這么簡單!因此convnet,DSSM等根本達不到我的要求,不能達到state of the art。去年在siamese lstm的實驗里,這個模型的核心是需要保留的,但還是有些粗糙,需要引入attention model,進一步提升語義理解的能力,不做詳細論述了。
下面到篇章的語義。過去一年,文章摘要的研究進展緩慢一些,之前本人提出的方案為siamese lstm + hierarchical attention,本質為:①上下文壓縮②語義相似度運算。這是典型的抽取式的摘要。但實際上,有很多機器寫作的需求,比如代替人工寫新聞,咨詢。或者是復述,這都屬於生成式的摘要。而本人的研究方向為兩者結合。對於一些相對較短的新聞資訊,抽取式的可以滿足,而且目前抽取式的比生成式的容易一些,准確率也高。
以上是對語義表示的簡單總結,語義理解除了語義表示和相似度運算外,今后更多的場景是依賴多輪對話,slot填充策略,DST,DM,這也是今年的研究重點。總結起來,今年要做的研究:①個性化推薦的突破②高斯混合分布的w2v模型改進,非監督學習的語義理解③抽取式的和生成式的摘要結合。在自然語言生成這塊兒,重點突破seq2seq生成語句的可讀性。
語義理解是復雜的,是一個完整的生態圈兒,需要研發平台級別的,而不是簡簡單單一個音箱之類的。這意味着,做產品的AI創業公司,是游走在邊緣的,很容易被淘汰。好了,到此為止,不多說了。
下篇博客,深入細化語義理解:http://www.cnblogs.com/txq157/p/8445513.html
更多本人精彩博客推薦:http://www.cnblogs.com/txq157/p/7425781.html