[NLG]Unsupervised Discrete Sentence Representation Learning for Interpretable Neural Dialog Generat

看这篇paper看的自闭了。作者用了太多操作了。。。

摘要:

  作者的意思应该是要在一些无监督的语句中学会一些可解释的离散的laent action,然后用这些laent action指导对话的生成。什么叫可解释呢,我觉得这篇论文的意思就是,这个latent(意图,动作,相当于slot-value对)和这一句对话有直接的关系。然后作者就用了两个新的模型,实际上就是魔改了VAE(看的我脑阔痛)分别是DI-VAE和DI-VST。

模型:

写不动了,推荐几篇写的好的。

https://zhuanlan.zhihu.com/p/37630801  论文翻译+大概理解

https://zhuanlan.zhihu.com/p/61899498  我认为理解的很深刻

 

一句话总结:

论文主要探索了一种无监督的学习方式,通过离散的latent action增强对话的生成以及增加生成的可解释性,其主要创新点在于通过改变ELBO的loss函数解决了VAE的“posterior collapse ”问题。


本文来自互联网用户投稿,文章观点仅代表作者本人,不代表本站立场,不承担相关法律责任。如若转载,请注明出处。 如若内容造成侵权/违法违规/事实不符,请点击【内容举报】进行投诉反馈!

相关文章

立即
投稿

微信公众账号

微信扫一扫加关注

返回
顶部