[发明专利]一种基于增强现实技术的图像数据集生成方法在审
申请号: | 201910327998.9 | 申请日: | 2019-04-23 |
公开(公告)号: | CN110084892A | 公开(公告)日: | 2019-08-02 |
发明(设计)人: | 熊健;马强;王一平;张训飞;杨洁;桂冠 | 申请(专利权)人: | 南京邮电大学 |
主分类号: | G06T19/00 | 分类号: | G06T19/00 |
代理公司: | 南京纵横知识产权代理有限公司 32224 | 代理人: | 董建林 |
地址: | 210003 江苏*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 图像数据集 遮挡 增强现实技术 原则选择 三维虚拟图像 数据集图像 获取目标 角度选取 目标物体 软件生成 图像采集 图像生成 增强现实 真实背景 重大意义 组合图像 组合原则 复杂度 数据集 图像 场景 拍摄 爆炸 缓解 学习 | ||
本发明公开一种基于增强现实技术的图像数据集生成方法,通过增强现实软件生成目标物体的三维虚拟图像,再根据背景组合原则选择不同的真实背景,根据角度选取原则选择不同的拍摄角度,根据遮挡模拟原则选择不同的遮挡情况,以获取目标物体在多场景、多角度和不同遮挡情况下的组合图像,最后将获取的图像生成图像数据集;本发明通过利用增强现实技术增加数据集图像背景种类,图像采集的角度和遮挡情况,解决了现有技术中的图像数据集在规模上的局限性,大大提高了数据集上下文的复杂度,使得模型在“罕见”图像上具有更良好的效果,对缓解深度学习中的组合爆炸问题具有重大意义。
技术领域
本发明属于计算机视觉图像处理领域,具体是一种基于增强现实技术的图像数据集生成方法。
背景技术
增强现实(Augmented Reality,AR)技术作为一门新兴技术,可将计算机生成的二维或三维虚拟物体与真实场景实时叠加;并利用交互技术实现真实场景与虚拟物体之间的互动,从视听感觉上给人带来超越现实的体验,其通过附加虚拟的数字信息以提升用户与真实环境的交互体验;在市场营销领域,增强现实技术已被成功运用于将虚拟的产品和现实背景相对接,实现产品效果预览,避免了购买产品风格不合适的情况,极大提高了用户体验。增强现实的大致流程为:首先在真实场景中定位摄像机的位姿,然后采用计算机图形渲染技术将虚拟物体注册到真实场景中生成虚拟融合的应用视图。
但是,由于数据集规模的局限,数据集中上下文数量有限,深度学习遭遇了“组合爆炸”的问题。世界是“组合”的,而数据集却是普遍存在偏见的,难以代表真实世界的复杂性,模型在数据集以外的真实世界的图像上,尤其是在目标物体与背景组合“罕见”的图像(真实世界不常见的组合图像)上可能会出现严重失败。
现有的图像数据集训练出来的模型还存在以下问题:
(1)数据集图像背景往往单一,模型对于上下文的细微变化过于敏感,缺乏对真实世界复杂性的考虑,在罕见图片上的高错误率限制了模型的进一步推广;
(2)对于目标物品的拍摄角度有限,数据集存在角度方向上的“偏见”,训练后的模型偏向于某一个固定的视角,在不具备相似拍摄角度的图片上分类效果差;
(3)缺乏了对于物体被遮挡情况的考虑,在判定模型效果时,被部分物体遮挡的图像会对判定结果造成影响;
因此,本发明从多场景、多角度和不同被遮挡情况三个方面考虑,提出了一种基于增强现实技术的图像数据集生成方法,从而缓解了图像处理领域的“组合爆炸”问题。
发明内容
本发明的目的是针对现有技术存在的问题,提供一种基于增强现实技术的图像数据集生成方法,解决了现有技术中的图像数据集在规模上的局限性,大大提高了数据集上下文的复杂度,使得模型在“罕见”图像上具有更良好的效果。
为实现上述目的,本发明采用的技术方案是:
一种基于增强现实技术的图像数据集生成方法,包括以下步骤:
S1,将目标物体的三维特征数据导入增强现实软件,生成目标物体的三维虚拟图像;
S2,根据背景组合原则选择不同的真实背景;
S3,根据角度选取原则选择不同的拍摄角度;
S4,根据遮挡模拟原则选择不同的遮挡情况;
S5,采集所述目标物体在不同真实背景、不同拍摄角度和不同遮挡情况下的组合图像,并生成增强后的图像数据集。
具体地,步骤S2中,所述背景组合原则为:根据所述目标物体与背景在真实世界中的匹配程度,将所述目标物体与背景的组合数据分为三类,分别为常见组合、罕见组合和不可能组合;所述常见组合、罕见组合、不可能组合的数据占比为5:3:2;这样既能够保证模型在普通情况上原有的效果,也能够达到有效缓解组合爆炸问题的目的。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京邮电大学,未经南京邮电大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910327998.9/2.html,转载请声明来源钻瓜专利网。