Attacks for RL

1. http://rll.berkeley.edu/adversarial/   Adversarial Attacks on Neural Network Policies

就是对test时候的policy进行构造对抗样本,方法还是用的分类对抗样本的方法,对于DQN,把Q value做个softmax,一样地构造对抗样本。

转载于:https://www.cnblogs.com/huangshiyu13/p/10670362.html


本文来自互联网用户投稿,文章观点仅代表作者本人,不代表本站立场,不承担相关法律责任。如若转载,请注明出处。 如若内容造成侵权/违法违规/事实不符,请点击【内容举报】进行投诉反馈!

相关文章

立即
投稿

微信公众账号

微信扫一扫加关注

返回
顶部