[发明专利]一种用于多类别垃圾场景识别的目标检测模型的训练方法有效
申请号: | 202111606977.4 | 申请日: | 2021-12-27 |
公开(公告)号: | CN113989498B | 公开(公告)日: | 2022-07-12 |
发明(设计)人: | 张志嵩;张帆;陈映;曹松;任必为 | 申请(专利权)人: | 北京文安智能技术股份有限公司 |
主分类号: | G06V10/25 | 分类号: | G06V10/25;G06V10/774;G06V10/82;G06K9/62;G06N3/04 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 100094 北京市海*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 用于 类别 垃圾 场景 识别 目标 检测 模型 训练 方法 | ||
1.一种用于多类别垃圾场景识别的目标检测模型的训练方法,其特征在于,包括:
步骤S1,构造基于CenterNet网络结构的包含有p个卷积层的基础目标检测模型;
步骤S2,在p个所述卷积层中,选取包括首个所述卷积层在内的连续的m个所述卷积层,将选中的每个所述卷积层均替换为空洞卷积,其中,m个所述空洞卷积在p个所述卷积层中的许可占比范围阈值为[1/10,1/3];
步骤S3,依次设置m个所述空洞卷积的孔洞率,满足任意相邻的两个所述空洞卷积的孔洞率的最大公约数为1,以获取优化目标检测模型;所述步骤S3还包括判定所述优化目标检测模型的可用状态:
当所述优化目标检测模型的第m个空洞卷积的感受野与所述基础目标检测模型的第m个卷积层的感受野的比值落入感受野优化阈值比例范围内时,判定所述优化目标检测模型可用,执行步骤S4;
当所述优化目标检测模型的感受野与所述基础目标检测模型的感受野的比值落入感受野优化阈值比例范围外时,判定所述优化目标检测模型不可用,重复所述步骤S2或所述步骤S3;
步骤S4,构造样本图像训练集,所述样本图像训练集的每张样本图像均包含至少一类垃圾场景,使用所述样本图像训练集对所述优化目标检测模型训练,以获取用于多类别垃圾场景识别的目标检测模型。
2.根据权利要求1所述的目标检测模型的训练方法,其特征在于,当判定所述优化目标检测模型不可用,重复所述步骤S2时,在所述许可占比范围阈值内,依次增加或减小选取的m个所述卷积层的个数,直至所述优化目标检测模型的感受野与所述基础目标检测模型的感受野的比值落入感受野优化阈值比例范围内。
3.根据权利要求1所述的目标检测模型的训练方法,其特征在于,当判定所述优化目标检测模型不可用,重复所述步骤S3时,增大或减小m个所述空洞卷积的孔洞率,直至所述优化目标检测模型的感受野与所述基础目标检测模型的感受野的比值落入感受野优化阈值比例范围内。
4.根据权利要求1所述的目标检测模型的训练方法,其特征在于,所述感受野优化阈值比例范围为(1,4]。
5.根据权利要求1所述的目标检测模型的训练方法,其特征在于,
所述基础目标检测模型的感受野的迭代计算公式为:
RFn=RFn-1+(kn-1)×stride_n……………………………………………(1)
其中,RFn为第n个卷积层的感受野,当n=1时,RFn-1=1,
kn为第n个卷积层的卷积核尺寸,
stride_n为第n个卷积层的卷积步长;
所述优化目标检测模型的感受野的迭代计算公式为:
RF’n=RF’n-1+(k’n-1)×stride_n…………………………………………(2)
其中,当n≤m时,RF’n为第n个空洞卷积的感受野,或当n>m时,RF’n为第n个卷积层的感受野,当n=1时,RF’n-1=1,
当n≤m时,k’n为第n个空洞卷积的卷积核尺寸,或当n>m时,k’n为第n个卷积层的卷积核尺寸,k’n的计算公式为:k’n=kn+(kn-1)×(dn-1),式中,当n≤m时,dn为第n个空洞卷积的孔洞率,或当n>m时,dn为第n个卷积层的孔洞率,
当n≤m时,stride_n为第n个空洞卷积的卷积步长,或当n>m时,stride_n为第n个卷积层的卷积步长。
6.根据权利要求5所述的目标检测模型的训练方法,其特征在于,所述基础目标检测模型的p个所述卷积层的卷积核的宽度与高度相同,且各卷积层的卷积核的尺寸为1×1或3×3或5×5或7×7。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京文安智能技术股份有限公司,未经北京文安智能技术股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202111606977.4/1.html,转载请声明来源钻瓜专利网。