python神经网络FPN及其原理如何理解
Admin 2022-09-17 群英技术资讯 895 次浏览
这篇主要是介绍“python神经网络FPN及其原理如何理解”的内容了,下文有实例供大家参考,对大家了解操作过程或相关知识有一定的帮助,而且实用性强,希望这篇文章能帮助大家解决python神经网络FPN及其原理如何理解的问题,下面我们一起来了解看看吧。很多文章里面写道特征金字塔这个结构,其实这个结构Very-Easy
目标检测任务和语义分割任务里面常常需要检测小目标,但是小目标比较小呀,可能在原图里面只有几十个像素点。就像这个样子。

我不检测这个猫,我就检测这一片片落叶,是不是每个落叶所占的像素点特别少呢。
答案肯定是的。
最关键的问题就是,像素点少会对目标检测有什么影响!
我这里没有严密的数学推导,就从思想上来说,对于深度卷积网络,从一个特征层卷积到另一个特征层,无论步长是1还是2还是更多,卷积核都要遍布整个图片进行卷积,大的目标所占的像素点比小目多,所以大的目标被经过卷积核的次数远比小的目标多,所以在下一个特征层里,会更多的反应大目标的特点。
特别是在步长大于等于2的情况下,大目标的特点更容易得到保留,小目标的特征点容易被跳过。
因此,经过很多层的卷积之后,小目标的特点会越来越少,越小越小。
特征金字塔所做的其实就是下面这幅图。

这个结构与语义分割中的unet结构非常像,其对特征点进行不断的下采样后,拥有了一堆具有高语义内容的特征层,然后重新进行上采样,使得特征层的长宽重新变大,用大size的feature map去检测小目标,当然不可以简单只上采样,因为这样上采样的结果对小目标的特征与信息也不明确了,因此我们可以将下采样中,与上采样中长宽相同的特征层进行堆叠,这样可以保证小目标的特征与信息。
这是yolo3的网络结构,利用DarkNet53来进行特征提取,总共利用下采样进行五次长宽的收缩。
利用上采样进行三次长宽的扩张,在每次扩张之后,再与对应的下采样特征层进行合并堆叠,最后获得目标检测结果!

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:mmqy2019@163.com进行举报,并提供相关证据,查实之后,将立刻删除涉嫌侵权内容。
猜你喜欢
这是用于序列化的两个模块:• json: 用于字符串和python数据类型间进行转换• pickle: 用于python特有的类型和python的数据类型间进
变量是什么东西?只不过是保留在存储器位置的存储值。这意味着,当我们创建一个变量,需要在内存中保留一些空间。基于变量的数据类型,解释器会分配对应的内存,并决定什么可以存储在保留内存中。因此,通过为变量分配不同的数据类型,可以存储这些变量在整数,小数或字符的形式。
Python内置函数-next() 函数。next() 返回迭代器的下一个项目。next() 函数要和生成迭代器的iter() 函数一起使用。
在日常工作中,PPT制作是常见的工作,如果制作创意类PPT,则无法通过自动化的形式生成,因为创意本身具有随机性,而自动化解决的是重复性工作,两者有所冲突。python-pptx是python处理PPT
在深度学习中训练模型的过程中读取图片数据,如果将图片数据全部读入内存是不现实的,所以有必要使用生成器来读取数据。通过列表生成式,我们可以直接创建一个列表。但是,受到内存限制,列表容量肯定是有限的。而且,创建一个包含100万个元素的列表,不仅占用很大的存储空间,如果我们仅仅需要访问前面几个元素,那后面绝大多数元素占用的空间都白白浪费了。
成为群英会员,开启智能安全云计算之旅
立即注册Copyright © QY Network Company Ltd. All Rights Reserved. 2003-2020 群英 版权所有
增值电信经营许可证 : B1.B2-20140078 粤ICP备09006778号 域名注册商资质 粤 D3.1-20240008