[发明专利]一种基于自学习的类别检测方法、装置及设备在审
| 申请号: | 202211670873.4 | 申请日: | 2022-12-23 |
| 公开(公告)号: | CN115861633A | 公开(公告)日: | 2023-03-28 |
| 发明(设计)人: | 王昊然;朱皓;张家豪;童俊艳;任烨 | 申请(专利权)人: | 杭州海康威视数字技术股份有限公司 |
| 主分类号: | G06V10/40 | 分类号: | G06V10/40;G06V10/74;G06V10/764;G06V10/762;G06V10/774;G06V10/25;G06V10/26 |
| 代理公司: | 北京博思佳知识产权代理有限公司 11415 | 代理人: | 王剑 |
| 地址: | 310051 浙*** | 国省代码: | 浙江;33 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 自学习 类别 检测 方法 装置 设备 | ||
本申请提供一种基于自学习的类别检测方法、装置及设备,该方法包括:将目标图像输入至第一检测模型,得到目标图像中的目标对象的位置信息,从目标图像中截取所述位置信息对应的子图像,将子图像输入至第一特征提取模型,得到目标对象对应的目标特征;确定目标特征与特征集合中每个注册特征的相似度;若最高相似度小于第一相似度阈值,基于目标特征与特征集合中的每个注册特征,确定目标对象对应的开集分数值;基于开集分数值确定目标对象的目标类别为最高相似度对应的注册特征对应的标定类别,或确定目标类别为未注册类别。通过本申请的技术方案,可以自动检测目标对象的目标类别,提高检测准确率。
技术领域
本申请涉及图像识别技术领域,尤其涉及一种基于自学习的类别检测方法、装置及设备。
背景技术
在商场、超市等场所,通常会部署商品柜(也可以称为货柜,商品柜的形式可以为冰柜、饮料柜、陈列柜、自动售货柜等),商品柜内可以摆放多种类型的商品,买家可以自动购买商品柜中的商品,不需要卖家的参与。
在某些情况下,品牌商会向商场、超市等场所提供商品柜,针对这种类型的商品柜,需要在该商品柜中摆放指定类型商品(即该品牌商的商品),而不应该摆放其它类型的商品,或者,只允许摆放少量其它类型的商品。
由于商场、超市的数量过多,加上人员耗费等问题,品牌商难以现场查看商品柜中是否摆放指定类型商品,损害了品牌商的利益。基于此,如果能够自动检测商品柜中已摆放商品的类别,就能够对商品柜的使用情况进行管理,促使卖家按照规定在商品柜中摆放指定类型商品,保证品牌商的利益。但是,如何自动检测商品柜中已摆放商品的类别,目前并没有合理的实现方式。
发明内容
本申请提供一种基于自学习的类别检测方法,所述方法包括:
将已获取的目标图像输入至第一检测模型,得到所述目标图像中的目标对象对应的位置信息,从所述目标图像中截取所述位置信息对应的子图像,并将所述子图像输入至第一特征提取模型,得到所述目标对象对应的目标特征;
确定所述目标特征与已配置的特征集合中的每个注册特征的相似度;
若最高相似度不小于第一相似度阈值,则确定所述目标对象的目标类别为所述最高相似度对应的注册特征对应的标定类别;
若最高相似度小于所述第一相似度阈值,则基于所述目标特征与所述特征集合中的每个注册特征,确定所述目标对象对应的开集分数值;
基于所述开集分数值确定所述目标对象的目标类别为所述最高相似度对应的注册特征对应的标定类别,或者,确定所述目标类别为未注册类别。
本申请提供一种基于自学习的类别检测装置,所述装置包括:
获取模块,用于将目标图像输入至第一检测模型,得到所述目标图像中的目标对象对应的位置信息,从所述目标图像中截取所述位置信息对应的子图像,并将所述子图像输入至第一特征提取模型,得到所述目标对象对应的目标特征;
确定模块,用于确定所述目标特征与特征集合中的每个注册特征的相似度;若最高相似度不小于第一相似度阈值,则确定目标对象的目标类别为最高相似度对应的注册特征对应的标定类别;若最高相似度小于第一相似度阈值,则基于所述目标特征与所述特征集合中的每个注册特征,确定所述目标对象对应的开集分数值;基于所述开集分数值确定目标对象的目标类别为最高相似度对应的注册特征对应的标定类别,或者,确定所述目标类别为未注册类别。
本申请提供一种电子设备,包括:处理器和机器可读存储介质,所述机器可读存储介质存储有能够被所述处理器执行的机器可执行指令;其中,所述处理器用于执行机器可执行指令,以实现上述示例的基于自学习的类别检测方法。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于杭州海康威视数字技术股份有限公司,未经杭州海康威视数字技术股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202211670873.4/2.html,转载请声明来源钻瓜专利网。





