Seq2SQL :使用强化学习通过自然语言生成SQL



          Seq2SQL属于natural language interface (NLI)的领域,方便普通用户接入并查询数据库中的内容,即用户不需要了解SQL语句,只需要通过自然语言,就可查询所需内容。
       Seq2SQL借鉴的是Seq2Seq的思想,与Seq2Seq应用于机器翻译与Chatbot类似,Seq2SQL将输入的语句encode后再decode成结构化的SQL语言输出,强化学习是在 Seq2SQL中的最后一个模块中应用。同时,这篇论文还推出一个数据集WikiSQL,数据集内有人工标注好的问句及其对应SQL语句。
         试验结果显示,Seq2SQL的准确率也不是特别的高,只有60.3%
 
 

      Seq2SQL结构:
     
 
       Seq2SQL由三部分组成:
    第一部分:  Aggregation classifier    这一部分其实是一个分类器,将用户输入的语句分类成是select count/max/min 等统计相关的约束条件
    在此处采用的Augmented Pointer Network, Augmented Pointer Network 总体而言也是ecoder-to-decoder的结构,
    encoder采用的是两层的bi-LSTM, decoder 采用的是两层的unidirectional LSTM,
    encoder输出h,ht对应的是第t个词的输出状态
    decoder的每一步是,输入y s-1,输出状态gs,接着,decoder为每个位置t生成一个attention的score
    ,最终生成  
     在Seq2SQL中,首先为input生成一个表征向量 (agg:aggregation clasifier, inp:input,enc:encoder)
 
      首先为 Augmented Pointer Network类似,计算出一个attention的分数
      量化后,通过softmax函数  
      input的表征向量  
      通过一个多层的网络和softmax完成分类任务
             
    第二部分: select column   这一部分是看用户输入的问句命中了哪个column
     首先将每个column name 通过LSTM encode
     将用户输入encode成与第一部分 类似的
     最终通过一个多层的神经元和softmax确定是命中哪一行
     
      
    第三部分:where clause  确定约束条件,因为最终生成的SQL可能与标注中的不太一样,但是依旧有一样的结果,所以不能像前两部分一样使用交叉熵作为loss训练,因此使用强化训练中reward函数 (g: ground-truth), loss使用梯度
 

 
       WikiSQL:
    WikiSQL包含一系列与SQL相关的问题集以及SQL table
    
 

 

 
 
 


 
 

 
    






























       





免责声明!

本站转载的文章为个人学习借鉴使用,本站对版权不负任何法律责任。如果侵犯了您的隐私权益,请联系本站邮箱yoyou2525@163.com删除。



 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM