讲清楚attention是怎么回事
一直关注attention,但是不是很明白这个机制,前段时间看到一篇讲attention特别好的文章,主要是示意图比较多,花了点时间翻译并编辑出来,本来是放到公司wiki的,觉得这种翻译过来的别人的东西也不算涉及公司机密,今天分享出来。
文章目录
- Seq2Seq模型有什么不对?
- 为翻译而生
- Definition
- attention机制的家族
- summary
- Self-Attention
- Soft vs Hard Attention
- Global vs Local Attention
- 神经图灵机
- Attention Mechanisms
- Pointer Network
- Transformer
- 完整的架构
<
本文来自互联网用户投稿,文章观点仅代表作者本人,不代表本站立场,不承担相关法律责任。如若转载,请注明出处。 如若内容造成侵权/违法违规/事实不符,请点击【内容举报】进行投诉反馈!
