[发明专利]基于小样本学习的异物检测方法以及相关设备在审
申请号: | 202210976734.8 | 申请日: | 2022-08-15 |
公开(公告)号: | CN115147406A | 公开(公告)日: | 2022-10-04 |
发明(设计)人: | 丁宁;张晓光;李南;夏轩;何星;潘喜洲;张爱东 | 申请(专利权)人: | 深圳市人工智能与机器人研究院 |
主分类号: | G06T7/00 | 分类号: | G06T7/00;G06V10/764;G06V10/77;G06V10/774;G06V10/82;G06N3/04;G06N3/08 |
代理公司: | 北京集佳知识产权代理有限公司 11227 | 代理人: | 王欢 |
地址: | 518129 广东省深圳市龙岗区坂*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 样本 学习 异物 检测 方法 以及 相关 设备 | ||
本申请实施例公开了基于小样本学习的异物检测方法以及相关设备,用于提升基于小样本学习的异物检测效果。本申请实施例方法包括:确定待检测图像以及第一支持图像集;基于特征提取网络进行特征提取,以获得待测特征以及支持特征集;将待测特征分别与每类支持特征进行加权融合得到对应的N类加权待测特征;将每类加权待测特征分别输入RPN网络,以确定至少一个候选区域特征;学习每类异物的候选区域特征与对应类别的支持特征之间的匹配关系;在多个匹配关系中,选择满足预设条件的目标匹配关系;根据目标匹配关系对应的候选区域特征与目标匹配关系对应的候选区域特征对应的异物类型,确定待检测图像中的异物类型以及异物区域。
技术领域
本申请实施例涉及图像处理领域,尤其涉及基于小样本的异物检测方法以及相关设备。
背景技术
近年来深度学习技术已经应用到日常生活的各个方面,如人脸识别、车牌识别等,并且取得了巨大的成功。但深度学习技术依靠数据驱动,需要大量高质量样本用于训练以得到高质量检测模型。
当高质量样本获取难度大时,基于小样本数据集训练得到的检测模型往往会产生严重的过拟合现象,进而导致得到的检测模型的检测效果不佳。
发明内容
本申请实施例提供了基于小样本学习的异物检测方法以及相关设备,用于提升基于小样本学习的异物检测效果。
本申请实施例第一方面提供一种基于小样本学习的异物检测方法,包括:
确定待检测图像以及第一支持图像集,所述第一支持图像集包括N类第一支持图像,每类所述第一支持图像包含至少一张第一支持图像,每张所述第一支持图像具有预先标记的异物区域及异物类型,每类所述第一支持图像中每张第一支持图像的异物类型相同;
基于预先训练的权重共享的特征提取网络对所述待检测图像以及所述第一支持图像集进行特征提取,以获得所述待检测图像的待测特征以及所述第一支持图像集的支持特征集,其中所述支持特征集包括每类第一支持图像对应的支持特征;
将所述待测特征分别与每类所述支持特征进行加权融合得到对应的N类加权待测特征;
将每类所述加权待测特征分别输入RPN网络,以使所述RPN网络确定所述待检测图像中可能包含N类异物中每类异物的至少一个候选区域特征;
学习所述每类异物的至少一个候选区域特征与对应类别的支持特征之间的匹配关系;
在所述每类异物的至少一个候选区域特征与对应类别的支持特征之间的匹配关系中,选择满足预设条件的目标匹配关系;
根据所述目标匹配关系对应的候选区域特征与所述目标匹配关系对应的候选区域特征对应的异物类型,确定所述待检测图像中的异物类型以及异物区域。
在一种具体实现方式中,所述学习所述每类异物的至少一个候选区域特征与对应类别的支持特征之间的匹配关系,包括:
对每类异物的至少一个候选区域特征及对应类别的支持特征分别进行感兴趣区域池化处理;
学习进行感兴趣区域池化处理后的每个所述候选区域特征与对应类别的进行感兴趣区域池化处理后的支持特征在多种像素尺度上的匹配关系,综合多种所述像素尺度上的匹配关系得到每个所述候选区域与对应类别的支持特征的匹配关系。
在一种具体实现方式中,所述学习进行感兴趣区域池化处理后的每个所述候选区域特征与对应类别的进行感兴趣区域池化处理后的支持特征在多种像素尺度上的匹配关系,综合多种所述像素尺度上的匹配关系得到每个所述候选区域与对应类别的支持特征的匹配关系,包括:
将进行感兴趣区域池化处理后的每个所述候选区域特征与对应类别的进行感兴趣区域池化处理后的支持特征在通道维度上连接,将连接后的特征进行第一卷积处理得到第一像素尺度上的匹配关系;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于深圳市人工智能与机器人研究院,未经深圳市人工智能与机器人研究院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210976734.8/2.html,转载请声明来源钻瓜专利网。