讲清楚attention是怎么回事

一直关注attention,但是不是很明白这个机制,前段时间看到一篇讲attention特别好的文章,主要是示意图比较多,花了点时间翻译并编辑出来,本来是放到公司wiki的,觉得这种翻译过来的别人的东西也不算涉及公司机密,今天分享出来。


文章目录

      • Seq2Seq模型有什么不对?
      • 为翻译而生
      • Definition
      • attention机制的家族
        • summary
        • Self-Attention
        • Soft vs Hard Attention
        • Global vs Local Attention
      • 神经图灵机
        • Attention Mechanisms
      • Pointer Network
      • Transformer
        • 完整的架构
      • <


本文来自互联网用户投稿,文章观点仅代表作者本人,不代表本站立场,不承担相关法律责任。如若转载,请注明出处。 如若内容造成侵权/违法违规/事实不符,请点击【内容举报】进行投诉反馈!

相关文章

立即
投稿

微信公众账号

微信扫一扫加关注

返回
顶部