tensorflow2.0、keras实现Attention


1     h1_c=h1[:,-1:,:]
2     tmp=tf.keras.backend.batch_dot(h1_c,tf.keras.layers.Permute((2,1))(h1))
3     scores=tf.keras.layers.Softmax()(tmp)
4     at=tf.keras.backend.batch_dot(scores,h1)

 


免责声明!

本站转载的文章为个人学习借鉴使用,本站对版权不负任何法律责任。如果侵犯了您的隐私权益,请联系本站邮箱yoyou2525@163.com删除。



 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM