PyTorch实现深度可分离卷积(以MobileNet为例)
介绍深度可分离卷积之前首先要先介绍一下分组卷积。
分组卷积
参考链接[1]已经将分组卷积介绍的比较详细了,这里就不再赘述。原理可以参考一下参考链接。但是这篇文章对于分组卷积的具体代码讲解,感觉不太好。这里对于分组卷积着重介绍一下代码讲解。
直接调用torch.nn.Conv2d()就可以实现分组卷积。在Conv2d里面有一个参数叫groups,这个参数是实现这一功能的关键。下面详细解介绍一下这个参数。
groups
通过groups来实现分组卷积的操作。groups默认为1,也就是说将输入分为一组,此时是常规卷积。groups数值为几表示的就是将输入通道分为几组。当groups=in_channels的时候,表示的就是将输入的每一个通道都作为一组,然后分别对其进行卷积,输出通道数为k,最后再将每组输出串联,最后通道数为in_channels*k
为了详细说明这一点,我们来举几个具体例子。为了接下来方便计算,这里bias=False,另外用到了torchsummary模块,可以通过pip安装。
import torch
from torchsummary import summary
import torch.nn as nnclass CSDN_Tem(nn.Module):def __init__(self, in_ch, out_ch, groups):super(CSDN_Tem, self).__init__()self.conv = nn.Conv2d(in_channels=in_ch,out_channels=out_ch,kernel_size=3,stride=1,padding=1,groups=groups,bias=False)def forward(self, input):out = self.conv(input)return out
测试时,使用的是64*64*3的输入,你可以想象为一个64*64大小的图片输入。一个3*3大小的卷积核处理,最后输出的shape是64*64*30。
我们先是group为1的常规卷积操作。
device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')
conv = CSDN_Tem(3
本文来自互联网用户投稿,文章观点仅代表作者本人,不代表本站立场,不承担相关法律责任。如若转载,请注明出处。 如若内容造成侵权/违法违规/事实不符,请点击【内容举报】进行投诉反馈!
