【強化學習筆記】關於一篇對話系統文獻綜述的讀后感


本文由@ray 出品,轉載請注明出處。  
文章鏈接: http://www.cnblogs.com/wolfray/p/7887652.html


  

上周導師安排了一個任務——讀一下這篇文章

出處:A Survey on Dialogue Systems: Recent Advances and New Frontiers 
文章地址: https://arxiv.org/abs/1711.01731v1 
作者: Hongshen Chen, Xiaorui Liu, Dawei Yin, Jiliang Tang

筆者之前都是搞圖像處理啊、單片機啊、軟件開發啊這些的,沒有接觸過自然語言處理,對話系統這些。

通過閱讀這篇文章,筆者對對話系統有了初步的了解,並產生了一些想法。

首先放出讀了這篇文章后的思維導圖: 
這里寫圖片描述

一、概述

這篇文章主要概述了對話系統,尤其是對話系統在深度學習方面的進展;還討論了可能的研究方向

二、分類

對話系統根據其應用可以分為面向任務型和非面向任務型。

2.1 面向任務型

2.1.1 目的

面向任務型對話系統的目的是幫助用戶完成某些任務,比如說查找產品、預定住宿等。

2.1.2 方法

面向任務型的方法可以分為三種:

①流水線

流水線方法中包含4個模塊:

  • 自然語言理解(NLU):又可分為語義槽、意圖檢測和槽填充三個部分。

  • 對話狀態跟隨器(Dialogue State Tracking):確保對話系統健壯性的核心組成部分。它會在每一次對話中估計用戶的目標。傳統方法是用手工定制規則,新方法引入了信念追蹤的深度學習。

  • 對話策略學習(Policy learning):以從狀態跟隨器獲得的狀態表示作為條件,策略學習將產生下個可用的系統動作。

  • 自然語言生成(NLG):將抽象的對話動作轉化為淺層的自然語言表達

流水線方法的缺點有兩個:

  • 分數分配問題,最終用戶的反饋很難回傳到上游模塊
  • 處理相互依賴(模塊間)

②深度學習

③端到端(end-end):一個模塊,可以與結構化的外部數據進行交互

2.1.3 特點

面向任務型的特點是通常需要在外部知識庫上進行查詢。

2.2 非面向任務型

2.2.1 目的

非面向任務型的目的是在與人類交互過程中,提供合理的反應和娛樂;其主要專注於在開放域與人交談。

2.2.2 方法

非面向任務型的方法主要有兩個:

①生成方法:神經生成模型,可在對話過程中產生適當的回復。

序列到序列(seq2seq)模型是神經生成模型的基礎。

目前神經生成模型的熱門研究課題大概有如下幾個:

  • 對話上下文
  • 回復多樣性
  • 主題和個性
  • 外部知識庫
  • 交互式對話學習
  • 評價

②檢索方法:從數據庫中選擇當前對話的回復。這有可以分為單輪回復匹配、多輪回復匹配和混合方法。

三、結論

目前對話系統的發展特點有如下兩個:

  • 深度學習變成了對話系統的基礎技術,應用於傳統面向任務的對話系統的不同模塊

  • 充分利用大數據,結合端到端的訓練和強化學習。

四、一些思考

    1. 語義槽(Semantic Slots)是什么?

      答:

      語義槽類似於元數據,描述數據的數據。

      語義槽允許用戶去詳細描述說法的變量值部分。

      在下面的說法案例中{到達城市}和{旅行日期}就是語義槽: 
      我想去{到達城市} 
      預定一次{出發日期}的行程; 
      計划一個到{到達城市}的假期;

    2. 引言中提到大多對話系統,仍然使用人工特征或人工編寫的規則來處理狀態和動作空間表示、意圖檢測和槽填充。這里的人工特征和人工編寫的規則是指的什么?

    3. 微軟小娜和蘋果siri是什么型的系統?

    4. 真的存在一個評價標准來評價回復的質量嗎?


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2026 CODEPRJ.COM