[发明专利]一种生成物体检测模型的方法在审
申请号: | 201910369467.6 | 申请日: | 2019-05-05 |
公开(公告)号: | CN110070072A | 公开(公告)日: | 2019-07-30 |
发明(设计)人: | 齐子铭;李启东;陈裕潮;张伟;李志阳 | 申请(专利权)人: | 厦门美图之家科技有限公司 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/46;G06K9/62 |
代理公司: | 北京思睿峰知识产权代理有限公司 11396 | 代理人: | 谢建云;张赞 |
地址: | 361008 福建省厦门*** | 国省代码: | 福建;35 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 物体检测 训练图像 特征图 标注 特征提取模块 目标物体 融合模块 预测模块 卷积处理 特征融合 物体类别 上采样 预测 耦接 | ||
本发明公开了一种生成物体检测模型的方法,包括:获取包含标注数据的训练图像,标注数据为训练图像中目标物体的位置和类别;将训练图像输入预训练的物体检测模型中进行处理,所述物体检测模型包括相互耦接的特征提取模块、融合模块和预测模块,其中,特征提取模块适于对训练图像进行卷积处理,以生成至少一个初始特征图;融合模块适于对初始特征图进行上采样处理,以得到特征融合后的特征图;预测模块适于从特征图中预测出目标物体的类别和位置;基于标注数据与预测的物体类别和位置,对预训练的物体检测模型进行训练,以得到训练后的物体检测模型作为所生成的物体检测模型。
技术领域
本发明涉及计算机视觉技术领域,尤其涉及一种生成物体检测模型的方法、物体检测方法、计算设备及存储介质。
背景技术
物体检测是很多计算机视觉任务的基础,适于定位并识别输入图像中已知的一个或多个目标,通常被应用于场景内容理解、视频监控、基于内容的图像检索、机器人导航和增强现实等领域。
传统的物体检测方法一般分三个阶段:首先,提取候选框区域,采用滑动窗口对整幅图像遍历得到物体可能出现的位置;然后,对这些提取的候选框区域提取特征,常用的方法有SIFT(尺度不变特征变换)、HOG(方向梯度直方图)等;最后,将特征输入分类器进行分类,常用的分类器有SVM(支持向量机)、Adaboost(迭代算法)等。传统的物体检测方法时间复杂度高,窗口冗余,需要手动设计特征,对物体多样性的变化鲁棒性低。
近年来基于深度学习的目标检测方法取得了重要的进展。主流方法主要分为两个类型:一类是基于区域提名的两段式算法,即将检测问题划分为两个阶段,首先,通过启发式方法产生一系列稀疏的候选框,然后对这些候选框进行分类和回归。典型的有R-CNN(基于区域的卷积神经网络)、SPPNet(空间金字塔池化网络),以及各种改进的R-CNN系列算法等。这种方式检测准确度较高,但是计算速度较慢。一种是端到端的单段式算法,即不需要区域提取阶段,直接产生物体的类别概率和位置坐标。通过均匀地在图片的不同位置进行密集抽样,抽样时可以采用不同的尺度和长宽比,然后利用卷积神经网络提取特征后直接进行分类和回归。典型的有YOLO、SSD等。这种方式检测速度快,但是准确率较低。
因此,需要一种物体检测方法,能够在减少模型大小的同时提高模型的计算速度和准确率。
发明内容
为此,本发明提供了一种生成物体检测模型的方法,以力图解决或者至少缓解上面存在的至少一个问题。
根据本发明的一个方面,提供了一种生成物体检测模型的方法,该方法适于在计算设备中执行,包括:首先,获取包含标注数据的训练图像,标注数据为训练图像中目标物体的位置和类别。然后,将训练图像输入预训练的物体检测模型中进行处理,其中物体检测模型包括相互耦接的特征提取模块、融合模块和预测模块。特征提取模块适于对训练图像进行卷积处理,以生成至少一个初始特征图;融合模块适于对初始特征图进行上采样处理,以得到特征融合后的特征图;预测模块适于从特征融合后的特征图中预测出目标物体的类别和位置。最后,基于标注数据与预测的物体类别和位置,对预训练的物体检测模型进行训练,以得到训练后的物体检测模型作为所生成的物体检测模型。
可选地,在上述方法中,特征提取模块包括卷积处理单元、多个轻量化卷积单元和叠加单元,所述叠加单元适于将相互耦接的两个轻量化卷积单元的输出结果进行叠加。
可选地,在上述方法中,卷积处理单元的第一个卷积层采用扩张卷积,扩张卷积的扩张倍数为7。
可选地,在上述方法中,轻量化卷积处理单元包括相互耦接的的卷积核大小为1*1的卷积层、卷积核大小为3*3的深度可分离卷积层以及卷积核大小为1*1的卷积层。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于厦门美图之家科技有限公司,未经厦门美图之家科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910369467.6/2.html,转载请声明来源钻瓜专利网。