[发明专利]一种基于样本筛选的无标注车辆图片分类方法有效
申请号: | 202010114792.0 | 申请日: | 2020-02-25 |
公开(公告)号: | CN111368886B | 公开(公告)日: | 2023-03-21 |
发明(设计)人: | 贺海;徐雪妙 | 申请(专利权)人: | 华南理工大学 |
主分类号: | G06V10/764 | 分类号: | G06V10/764;G06V10/82;G06N3/0464;G06N3/084 |
代理公司: | 广州市华学知识产权代理有限公司 44245 | 代理人: | 冯炳辉 |
地址: | 510640 广*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 样本 筛选 标注 车辆 图片 分类 方法 | ||
本发明公开了一种基于样本筛选的无标注车辆图片分类方法,包括步骤:1)数据获取;2)数据处理;3)模型构建;4)定义损失函数;5)模型训练;6)模型验证;7)模型应用。本发明减缓了现有车辆图片分类技术数据匮乏的缺点,通过结合特征提取网络提取图像高层语义信息的能力,对抗领域自适应网络对齐拉近两个域数据分布的能力,样本筛选损失函数从特征级别和标注级别筛选重要样本和异常样本并选择性增强的能力,以及通用分类器网络的精准分类能力,更准确高效地完成无标注车辆图片分类任务。
技术领域
本发明涉及计算机图像处理的技术领域,尤其是指一种基于样本筛选的无标注车辆图片分类方法。
背景技术
随着现代化进程的发展和国民消费水平的不断提高,交通车辆的数目日益增长,对于车辆的实时监控和管理仅靠人力过于繁琐,而借助计算机和深度学习完成图片分类和分析为智能交通管理带来了新的发展。
在计算机图像分类领域,一个性能优异的深度学习分类模型往往是海量数据驱动的。但在某些特定场景下,比如城市交通车辆数据或者高速公路车辆数据,是需要通过专门的相关部门获取并且需要有经验的人士标注的;同时交通路况错综复杂,在一个例如城市道路场景下标注的数据集训练好了一个模型,应用到高速公路上做车辆分类性能却大打折扣。为了节约目标数据集(目标域,比如高速公路)的标注成本,常见的做法是,借助一个不同但相关的有标注的数据集(源域,比如城市道路),通过一个深度神经网络分类模型统一地拉近源域和目标域的数据分布来抽取这两个域的域不变特征,从而在目标域没有标注的情况下,将从源域学到的知识迁移到目标域。这种方法称为领域自适应分类。但这种基于度量学习的方法,其核心在于估计域的真实分布。不幸的是,一些非预期的噪声样本可能会严重影响源域和目标域数据分布的估计,比如糟糕的成像条件和错误标注。如果对所有样本平等对待,这些异常样本在作全局统计数据分布时造成的影响,很容易使得源域和目标域数据分布在拉近过程中造成错位或者负迁移,影响分类模型的泛化能力。
发明内容
本发明的目的在于克服现有车辆图片分类技术数据匮乏的缺点与不足,提出了一种基于样本筛选的无标注车辆图片分类方法,该方法可以很好的区分数据集中的异常样本和主流样本,减缓了之前方法统计样本分布时候造成的偏差,通过拉近被正确估计的数据分布而学习到更有效的域不变特征。
为实现上述目的,本发明所提供的技术方案为:一种基于样本筛选的无标注车辆图片分类方法,包括以下步骤:
1)数据获取
鉴于测试目标域数据集的标注成本昂贵,即高速公路的目标域数据集的标注成本昂贵,需要借助一个不同但相关的有标注的源域数据集,即城市道路的源域数据集,其中,高速公路的目标域数据集必须和城市道路的源域数据集中有相同类别的待分类的车辆,但是两个域车辆的角度和拍摄环境有区别;然后划分目标域数据集为训练数据集、验证数据集和测试数据集,源域数据集全为训练数据集;
2)数据处理
将源域数据集的图像、域标注和类别标注数据及目标域数据集的图像和域标注,通过预处理转化为训练领域自适应分类模型所需要的格式,然后成对地输入到车辆图片分类网络模型中;
3)模型构建
根据训练目标以及模型的输入输出形式,构造一个能够学习域不变特征的对抗深度神经网络模型,其由特征提取网络、对抗领域自适应网络和通用分类网络组成;
4)定义损失函数
根据训练目标以及模型的架构,除了必需的分类和域对抗度量损失函数,额外提出了特征层面和标注层面两个按样本重要性增强损失函数;
5)模型训练
初始化模型各网络层的参数,不断迭代输入成对的源域和目标域训练样本,根据损失函数计算得到模型各网络层的损失值,再通过反向传播计算出各网络层参数的梯度,通过随机梯度下降法对各网络层的参数进行更新;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华南理工大学,未经华南理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010114792.0/2.html,转载请声明来源钻瓜专利网。