yolov3检测人头_yolo类检测算法解析——yolo v3
每当听到有人问“如何入门计算机视觉”这个问题时,其实我内心是拒绝的,为什么呢?因为我们说的计算机视觉的发展史可谓很长了,它的分支很多,而且理论那是错综复杂交相辉映,就好像数学一样,如何学习数学?这问题似乎有点笼统、有点宽泛。所以我都会具体问问你想入门计算机视觉的哪个话题,只有顺着一个话题理论联合实际,才有可能扩展到几个话题。
yolo类算法,从开始到现在已经有了3代,我们称之为v1、v2、v3,一路走来,让人能感觉到的是算法的性能在不断的改进,以至于现在成为了开源通用目标检测算法的领头羊(ps:虽然本人一直都很欣赏SSD,但是不得不说V3版本已经达到目前的颠覆)。一直以来,有一个问题困扰许久,那就是如何检测两个距离很近的同类的物体,当然又或者是距离很近的不同类的物体?绝大部分算法都会对传入的data做resize到一个更小的resolution,它们对于这种情况都会给出一个目标框,因为在它们的特征提取或者回归过程看来,这就是一个物体(可想本来就很近,一放缩之间的近距离越发明显了),而事实上这是两个同(或不同)类型的物体靠的很近,这个难题是目标检测和跟踪领域的一个挑战。就好像对小目标的检测,一直以来也被看做是算法的一种评估。但是啊,v3版本却做到了,它对这种距离很近的物体或者小物体有很好的鲁棒性,虽然不能保证百分百,但是这个难题得到了很大程度的解决,激发我对yolo类算法的研究。这也是为什么写这篇文章的目的,在于见证一下这个算法的神奇。其实,百分百的检测,在我看来事实上是不存在的,随着时间的推移,环境的变化,任何妄言百分百准确的算法都是扯,只能是相互调整吧。前几天uber撞人事件其实我最关注的应该是哪个环节存在的问题,还需要改进,撞人是不可避免的,无人车的存在不是让事故不发生,而是让社会进步,科技发展,逐步降低事故发生率的同时改善人们的生活质量。
yolo的v1和v2都不如SSD算法,原谅这么直白,原因是v1版本的448和v2版本的416都不如SSD的300,当然以上结论都是实验测的,v3版本的416应该比SSD512好,可见其性能。
对官方yolo做了实验,实验中,采用同一个视频、同一张显卡,在阈值为0.3的前提下,对比了v3和v2的测试效果之后,有了下面两个疑问:
1.为什么v3和v2版本的测试性能提高很大,但速度却没有降低?
2.为什么v3性能上能有这么大的改进?或者说为什么v3在没有提高输入数据分辨率的前提下,对小目标检测变得这么好?
要回答上述两个问题,必须要看看作者发布的v3论文了,将v3和v2不一样的地方总结一下:
loss不同:作者v3替换了v2的softmax loss 变成logistic loss,而且每个ground truth只匹配一个先验框。
anchor bbox prior不同:v2作者用了5个anchor,一个折衷的选择,所以v3用了9个anchor,提高了IOU。
detection的策略不同:v2只有一个detection,v3一下变成了3个,分别是一个下采样的,feature map为13*13,还有2个上采样的eltwise sum,feature map为26*26,52*52,也就是说v3的416版本已经用到了52的feature map,而v2把多尺度考虑到训练的data采样上,最后也只是用到了13的feature map,这应该是对小目标影响最大的地方。
backbone不同:这和上一点是有关系的,v2的darknet-19变成了v3的darknet-53,为啥呢?就是需要上采样啊,卷积层的数量自然就多了,另外作者还是用了一连串的3*3、1*1卷积,3*3的卷积增加channel,而1*1的卷积在于压缩3*3卷积后的特征表示,这波操作很具有实用性,一增一减,效果棒棒。
为什么有这么大的提高?我指的是v2和v3比,同样是416的feature map,我感觉是v2作者当时也是做了很多尝试和借鉴,实现了匹敌SSD的效果,但是他因为被借鉴的内容所困扰,导致性能的停留,因此v3再借鉴,应该是参考了DSSD和FPN,这应该是之后的潮流了,做了一下结果性能提高很大,可能作者本人都没想到。但是作者目前没有写篇论文,认为没有创造性实质性的改变,写了一个report,科研的精神值得肯定!如果对比v2和v3你会发现反差确实很大,所以上面的问题才不奇怪。
又为什么速度没有下降?电脑上同环境测都是15帧左右。先看一下打印的日志:
v2的日志信息:
Demo
layer filters size input output0 conv 32 3 x 3 / 1 416 x 416 x 3 -> 416 x 416 x 32 0.299BFLOPs1 max 2 x 2 / 2 416 x 416 x 32 -> 208 x 208 x 32
2 conv 64 3 x 3 / 1 208 x 208 x 32 -> 208 x 208 x 64 1.595BFLOPs3 max 2 x 2 / 2 208 x 208 x 64 -> 104 x 104 x 64
4 conv 128 3 x 3 / 1 104 x 104 x 64 -> 104 x 104 x 128 1.595BFLOPs5 conv 64 1 x 1 / 1 104 x 104 x 128 -> 104 x 104 x 64 0.177BFLOPs6 conv 128 3 x 3 / 1 104 x 104 x 64 -> 104 x 104 x 128 1.595BFLOPs7 max 2 x 2 / 2 104 x 104 x 128 -> 52 x 52 x 128
8 conv 256 3 x 3 / 1 52 x 52 x 128 -> 52 x 52 x 256 1.595BFLOPs9 conv 128 1 x 1 / 1 52 x 52 x 256 -> 52 x 52 x 128 0.177BFLOPs10 conv 256 3 x 3 / 1 52 x 52 x 128 -> 52 x 52 x 256 1.595BFLOPs11 max 2 x 2 / 2 52 x 52 x 256 -> 26 x 26 x 256
12 conv 512 3 x 3 / 1 26 x 26 x 256 -> 26 x 26 x 512 1.595BFLOPs13 conv 256 1 x 1 / 1 26 x 26 x 512 -> 26 x 26 x 256 0.177BFLOPs14 conv 512 3 x 3 / 1 26 x 26 x 256 -> 26 x 26 x 512 1.595BFLOPs15 conv 256 1 x 1 / 1 26 x 26 x 512 -> 26 x 26 x 256 0.177BFLOPs16 conv 512 3 x 3 / 1 26 x 26 x 256 -> 26 x 26 x 512 1.595BFLOPs17 max 2 x 2 / 2 26 x 26 x 512 -> 13 x 13 x 512
18 conv 1024 3 x 3 / 1 13 x 13 x 512 -> 13 x 13 x1024 1.595BFLOPs19 conv 512 1 x 1 / 1 13 x 13 x1024 -> 13 x 13 x 512 0.177BFLOPs20 conv 1024 3 x 3 / 1 13 x 13 x 512 -> 13 x 13 x1024 1.595BFLOPs21 conv 512 1 x 1 / 1 13 x 13 x1024 -> 13 x 13 x 512 0.177BFLOPs22 conv 1024 3 x 3 / 1 13 x 13 x 512 -> 13 x 13 x1024 1.595BFLOPs23 conv 1024 3 x 3 / 1 13 x 13 x1024 -> 13 x 13 x1024 3.190BFLOPs24 conv 1024 3 x 3 / 1 13 x 13 x1024 -> 13 x 13 x1024 3.190BFLOPs25 route 16
26 conv 64 1 x 1 / 1 26 x 26 x 512 -> 26 x 26 x 64 0.044BFLOPs27 reorg / 2 26 x 26 x 64 -> 13 x 13 x 256
28 route 27 24
29 conv 1024 3 x 3 / 1 13 x 13 x1280 -> 13 x 13 x1024 3.987BFLOPs30 conv 125 1 x 1 / 1 13 x 13 x1024 -> 13 x 13 x 125 0.043BFLOPs31detection
mask_scale: Usingdefault '1.000000'Loading weightsfrom yolo-voc.weights...Done!
v3的日志信息:
Demo
layer filters size input output0 conv 32 3 x 3 / 1 416 x 416 x 3 -> 416 x 416 x 32 0.299BFLOPs1 conv 64 3 x 3 / 2 416 x 416 x 32 -> 208 x 208 x 64 1.595BFLOPs2 conv 32 1 x 1 / 1 208 x 208 x 64 -> 208 x 208 x 32 0.177BFLOPs3 conv 64 3 x 3 / 1 208 x 208 x 32 -> 208 x 208 x 64 1.595BFLOPs4 res 1 208 x 208 x 64 -> 208 x 208 x 64
5 conv 128 3 x 3 / 2 208 x 208 x 64 -> 104 x 104 x 128 1.595BFLOPs6 conv 64 1 x 1 / 1 104 x 104 x 128 -> 104 x 104 x 64 0.177BFLOPs7 conv 128 3 x 3 / 1 104 x 104 x 64 -> 104 x 104 x 128 1.595BFLOPs8 res 5 104 x 104 x 128 -> 104 x 104 x 128
9 conv 64 1 x 1 / 1 104 x 104 x 128 -> 104 x 104 x 64 0.177BFLOPs10 conv 128 3 x 3 / 1 104 x 104 x 64 -> 104 x 104 x 128 1.595BFLOPs11 res 8 104 x 104 x 128 -> 104 x 104 x 128
12 conv 256 3 x 3 / 2 104 x 104 x 128 -> 52 x 52 x 256 1.595BFLOPs13 conv 128 1 x 1 / 1 52 x 52 x 256 -> 52 x 52 x 128 0.177BFLOPs14 conv 256 3 x 3 / 1 52 x 52 x 128 -> 52 x 52 x 256 1.595BFLOPs15 res 12 52 x 52 x 256 -> 52 x 52 x 256
16 conv 128 1 x 1 / 1 52 x 52 x 256 -> 52 x 52 x 128 0.177BFLOPs17 conv 256 3 x 3 / 1 52 x 52 x 128 -> 52 x 52 x 256 1.595BFLOPs18 res 15 52 x 52 x 256 -> 52 x 52 x 256
19 conv 128 1 x 1 / 1 52 x 52 x 256 -> 52 x 52 x 128 0.177BFLOPs20 conv 256 3 x 3 / 1 52 x 52 x 128 -> 52 x 52 x 256 1.595BFLOPs21 res 18 52 x 52 x 256 -> 52 x 52 x 256
22 conv 128 1 x 1 / 1 52 x 52 x 256 -> 52 x 52 x 128 0.177BFLOPs23 conv 256 3 x 3 / 1 52 x 52 x 128 -> 52 x 52 x 256 1.595BFLOPs24 res 21 52 x 52 x 256 -> 52 x 52 x 256
25 conv 128 1 x 1 / 1 52 x 52 x 256 -> 52 x 52 x 128 0.177BFLOPs26 conv 256 3 x 3 / 1 52 x 52 x 128 -> 52 x 52 x 256 1.595BFLOPs27 res 24 52 x 52 x 256 -> 52 x 52 x 256
28 conv 128 1 x 1 / 1 52 x 52 x 256 -> 52 x 52 x 128 0.177BFLOPs29 conv 256 3 x 3 / 1 52 x 52 x 128 -> 52 x 52 x 256 1.595BFLOPs30 res 27 52 x 52 x 256 -> 52 x 52 x 256
31 conv 128 1 x 1 / 1 52 x 52 x 256 -> 52 x 52 x 128 0.177BFLOPs32 conv 256 3 x 3 / 1 52 x 52 x 128 -> 52 x 52 x 256 1.595BFLOPs33 res 30 52 x 52 x 256 -> 52 x 52 x 256
34 conv 128 1 x 1 / 1 52 x 52 x 256 -> 52 x 52 x 128 0.177BFLOPs35 conv 256 3 x 3 / 1 52 x 52 x 128 -> 52 x 52 x 256 1.595BFLOPs36 res 33 52 x 52 x 256 -> 52 x 52 x 256
37 conv 512 3 x 3 / 2 52 x 52 x 256 -> 26 x 26 x 512 1.595BFLOPs38 conv 256 1 x 1 / 1 26 x 26 x 512 -> 26 x 26 x 256 0.177BFLOPs39 conv 512 3 x 3 / 1 26 x 26 x 256 -> 26 x 26 x 512 1.595BFLOPs40 res 37 26 x 26 x 512 -> 26 x 26 x 512
41 conv 256 1 x 1 / 1 26 x 26 x 512 -> 26 x 26 x 256 0.177BFLOPs42 conv 512 3 x 3 / 1 26 x 26 x 256 -> 26 x 26 x 512 1.595BFLOPs43 res 40 26 x 26 x 512 -> 26 x 26 x 512
44 conv 256 1 x 1 / 1 26 x 26 x 512 -> 26 x 26 x 256 0.177BFLOPs45 conv 512 3 x 3 / 1 26 x 26 x 256 -> 26 x 26 x 512 1.595BFLOPs46 res 43 26 x 26 x 512 -> 26 x 26 x 512
47 conv 256 1 x 1 / 1 26 x 26 x 512 -> 26 x 26 x 256 0.177BFLOPs48 conv 512 3 x 3 / 1 26 x 26 x 256 -> 26 x 26 x 512 1.595BFLOPs49 res 46 26 x 26 x 512 -> 26 x 26 x 512
50 conv 256 1 x 1 / 1 26 x 26 x 512 -> 26 x 26 x 256 0.177BFLOPs51 conv 512 3 x 3 / 1 26 x 26 x 256 -> 26 x 26 x 512 1.595BFLOPs52 res 49 26 x 26 x 512 -> 26 x 26 x 512
53 conv 256 1 x 1 / 1 26 x 26 x 512 -> 26 x 26 x 256 0.177BFLOPs54 conv 512 3 x 3 / 1 26 x 26 x 256 -> 26 x 26 x 512 1.595BFLOPs55 res 52 26 x 26 x 512 -> 26 x 26 x 512
56 conv 256 1 x 1 / 1 26 x 26 x 512 -> 26 x 26 x 256 0.177BFLOPs57 conv 512 3 x 3 / 1 26 x 26 x 256 -> 26 x 26 x 512 1.595BFLOPs58 res 55 26 x 26 x 512 -> 26 x 26 x 512
59 conv 256 1 x 1 / 1 26 x 26 x 512 -> 26 x 26 x 256 0.177BFLOPs60 conv 512 3 x 3 / 1 26 x 26 x 256 -> 26 x 26 x 512 1.595BFLOPs61 res 58 26 x 26 x 512 -> 26 x 26 x 512
62 conv 1024 3 x 3 / 2 26 x 26 x 512 -> 13 x 13 x1024 1.595BFLOPs63 conv 512 1 x 1 / 1 13 x 13 x1024 -> 13 x 13 x 512 0.177BFLOPs64 conv 1024 3 x 3 / 1 13 x 13 x 512 -> 13 x 13 x1024 1.595BFLOPs65 res 62 13 x 13 x1024 -> 13 x 13x102466 conv 512 1 x 1 / 1 13 x 13 x1024 -> 13 x 13 x 512 0.177BFLOPs67 conv 1024 3 x 3 / 1 13 x 13 x 512 -> 13 x 13 x1024 1.595BFLOPs68 res 65 13 x 13 x1024 -> 13 x 13x102469 conv 512 1 x 1 / 1 13 x 13 x1024 -> 13 x 13 x 512 0.177BFLOPs70 conv 1024 3 x 3 / 1 13 x 13 x 512 -> 13 x 13 x1024 1.595BFLOPs71 res 68 13 x 13 x1024 -> 13 x 13x102472 conv 512 1 x 1 / 1 13 x 13 x1024 -> 13 x 13 x 512 0.177BFLOPs73 conv 1024 3 x 3 / 1 13 x 13 x 512 -> 13 x 13 x1024 1.595BFLOPs74 res 71 13 x 13 x1024 -> 13 x 13x102475 conv 512 1 x 1 / 1 13 x 13 x1024 -> 13 x 13 x 512 0.177BFLOPs76 conv 1024 3 x 3 / 1 13 x 13 x 512 -> 13 x 13 x1024 1.595BFLOPs77 conv 512 1 x 1 / 1 13 x 13 x1024 -> 13 x 13 x 512 0.177BFLOPs78 conv 1024 3 x 3 / 1 13 x 13 x 512 -> 13 x 13 x1024 1.595BFLOPs79 conv 512 1 x 1 / 1 13 x 13 x1024 -> 13 x 13 x 512 0.177BFLOPs80 conv 1024 3 x 3 / 1 13 x 13 x 512 -> 13 x 13 x1024 1.595BFLOPs81 conv 255 1 x 1 / 1 13 x 13 x1024 -> 13 x 13 x 255 0.088BFLOPs82detection83 route 79
84 conv 256 1 x 1 / 1 13 x 13 x 512 -> 13 x 13 x 256 0.044BFLOPs85 upsample 2x 13 x 13 x 256 -> 26 x 26 x 256
86 route 85 61
87 conv 256 1 x 1 / 1 26 x 26 x 768 -> 26 x 26 x 256 0.266BFLOPs88 conv 512 3 x 3 / 1 26 x 26 x 256 -> 26 x 26 x 512 1.595BFLOPs89 conv 256 1 x 1 / 1 26 x 26 x 512 -> 26 x 26 x 256 0.177BFLOPs90 conv 512 3 x 3 / 1 26 x 26 x 256 -> 26 x 26 x 512 1.595BFLOPs91 conv 256 1 x 1 / 1 26 x 26 x 512 -> 26 x 26 x 256 0.177BFLOPs92 conv 512 3 x 3 / 1 26 x 26 x 256 -> 26 x 26 x 512 1.595BFLOPs93 conv 255 1 x 1 / 1 26 x 26 x 512 -> 26 x 26 x 255 0.177BFLOPs94detection95 route 91
96 conv 128 1 x 1 / 1 26 x 26 x 256 -> 26 x 26 x 128 0.044BFLOPs97 upsample 2x 26 x 26 x 128 -> 52 x 52 x 128
98 route 97 36
99 conv 128 1 x 1 / 1 52 x 52 x 384 -> 52 x 52 x 128 0.266BFLOPs100 conv 256 3 x 3 / 1 52 x 52 x 128 -> 52 x 52 x 256 1.595BFLOPs101 conv 128 1 x 1 / 1 52 x 52 x 256 -> 52 x 52 x 128 0.177BFLOPs102 conv 256 3 x 3 / 1 52 x 52 x 128 -> 52 x 52 x 256 1.595BFLOPs103 conv 128 1 x 1 / 1 52 x 52 x 256 -> 52 x 52 x 128 0.177BFLOPs104 conv 256 3 x 3 / 1 52 x 52 x 128 -> 52 x 52 x 256 1.595BFLOPs105 conv 255 1 x 1 / 1 52 x 52 x 256 -> 52 x 52 x 255 0.353BFLOPs106detection
Loading weightsfrom yolov3.weights...Done!
百度百科:FLOPS(即“每秒浮点运算次数”,“每秒峰值速度”),是“每秒所执行的浮点运算次数”(floating-point operations per second)的缩写。它常被用来估算电脑的执行效能,尤其是在使用到大量浮点运算的科学计算领域中。正因为FLOPS字尾的那个S,代表秒,而不是复数,所以不能省略掉。
在这里所谓的“浮点运算”,实际上包括了所有涉及小数的运算。这类运算在某类应用软件中常常出现,而它们也比整数运算更花时间。现今大部分的处理器中,都有一个专门用来处理浮点运算的“浮点运算器”(FPU)。也因此FLOPS所量测的,实际上就是FPU的执行速度。而最常用来测量FLOPS的基准程式(benchmark)之一,就是Linpack。
可能的原因:yolov2是一个纵向自上而下的网络架构,随着channel数目的不断增加,FLOPS是不断增加的,而v3网络架构是横纵交叉的,看着卷积层多,其实很多多channel的卷积层没有继承性,另外,虽然yolov3增加了anchor centroid,但是对ground truth的估计变得更加简单,每个ground truth只匹配一个先验框,而且每个尺度只预测3个框,v2预测5个框。这样的话也降低了复杂度。
所以这发展的历程应该是这样的:
yolo——SSD——yolov2——FPN、Focal loss、DSSD......——yolov3
最后总结,yolo算法的性能一直都没有被v2发挥出来,而真正被v3发挥出来了,v3这次的借鉴效果实在是太好了。
欢迎加入QQ交流群864933024
本文来自互联网用户投稿,文章观点仅代表作者本人,不代表本站立场,不承担相关法律责任。如若转载,请注明出处。 如若内容造成侵权/违法违规/事实不符,请点击【内容举报】进行投诉反馈!
