反向 Dropout,韩松团队最新工作NetAug:提高Tiny神经网络性能的新训练方法

​作者丨happy
编辑丨极市平台
本文首发于极市平台,转载请获得授权并标明出处。

论文链接:https://arxiv.org/abs/2110.08890

TinyNN的福音:韩松团队提出针对TinyNN推理无损涨点的新型训练方案NetAug。本文从正则技术的作用以及TinyNN与大网络的容量角度出发,分析了为何正则技术会影响TinyNN的性能,进而提出了适用于TinyNN的新型训练方案NetAug。在ImageNet分类任务上,NetAug可以提升MobileNetV2-tiny性能达2.1%

原文地址:反向 dropout!韩松团队最新工作 NetAug:提高 Tiny 神经网络性能的新训练方法


本文来自互联网用户投稿,文章观点仅代表作者本人,不代表本站立场,不承担相关法律责任。如若转载,请注明出处。 如若内容造成侵权/违法违规/事实不符,请点击【内容举报】进行投诉反馈!

相关文章

立即
投稿

微信公众账号

微信扫一扫加关注

返回
顶部