[发明专利]一种基于概念学习的透彻感知与动态理解方法有效
| 申请号: | 201910594481.6 | 申请日: | 2019-07-03 |
| 公开(公告)号: | CN110287941B | 公开(公告)日: | 2022-12-27 |
| 发明(设计)人: | 金晶;刘劼 | 申请(专利权)人: | 哈尔滨工业大学 |
| 主分类号: | G06V20/10 | 分类号: | G06V20/10;G06V10/764 |
| 代理公司: | 哈尔滨市阳光惠远知识产权代理有限公司 23211 | 代理人: | 孙莉莉 |
| 地址: | 150001 黑龙*** | 国省代码: | 黑龙江;23 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 概念 学习 透彻 感知 动态 理解 方法 | ||
1.一种基于概念学习的透彻感知与动态理解方法,其特征在于:所述方法包括以下步骤:
步骤一:基于深度学习与时序贝叶斯迭代训练构建大范围“场景-目标-行为”的静-动态概念关系模型,所述静-动态概念关系模型能够透彻反映场景属性、人物行为和事件关联的抽象关系,全面掌控大范围复杂场景动态;
步骤二:基于贝叶斯网络的概率图模型推理及场景深度理解技术,结合训练好的静-动态概念关系模型和环境上下文,预测目标行为状态;
步骤三:按照集群机器人任务为指引,以静-动态概念关系模型推理置信度最高为原则,设计机器人分布式协同策略,通过优化传感器配置实现对场景目标与态势的透彻感知与深度理解;
步骤四:按照任务执行指令为指引,驱动机器人对执行任务完成精准操控;
所述步骤一具体为:
步骤1.1、对集群机器人采集的场景RGB-D图像进行拼接,并将拼接后的场景分解为一定空间尺度的场景信息,所述尺度的设定由场景所含信息量、场景延迟时间和计算复杂度来决定;
步骤1.2、利用深度学习训练静态场景模型,提取场景中包含的语义概念及从属于该语义概念的结构和属性,建立“场景-目标”的静态概念模型;
步骤1.3、将语义概念作为贝叶斯网络节点,语义概念之间的相互关系作为网络的有向边,用条件概率表达关系强度,加入时间维度信息,利用时序贝叶斯迭代对场景中语义间的动态关系进行描述,建立“目标-行为”的动态关系模型;
步骤1.4、基于信息论将静态概念模型与动态关系模型进行统一。
2.根据权利要求1所述的方法,其特征在于:所述步骤二具体为:
步骤2.1、在集群机器人实时运行中,每一个机器人获取一帧场景RGB-D数据,并从中提取语义概念及状态、属性信息;
步骤2.2、利用训练好的“场景-目标-行为”静-动态概念关系模型,基于贝叶斯网络的概率图模型对当前场景语义概念进行推理,完成目标在当前场景中的深度理解,即对目标行为状态进行预测。
3.根据权利要求2所述的方法,其特征在于:所述步骤二还包括:若集群机器人场景获取有交叠,需根据机器人所处位置及预测结果进行投票,得到集群机器人一致的预测结论。
4.根据权利要求2所述的方法,其特征在于:所述步骤三具体为:
步骤3.1、将集群机器人任务作为指令,并将指令分解为环境感知指令和任务执行指令,将环境感知指令与理解出的场景目标行为状态进行对比,计算环境感知指令与场景理解的相似度;
步骤3.2、如果相似度达到一致,则执行步骤四;如果相似度不一致,则结合当前集群机器人的位置、姿态和方位信息,以静-动态概念关系模型推理置信度最高为原则,综合考虑机器人资源条件约束,设计机器人分布式协同策略,使机器人对目标进行透彻感知;
步骤3.3、按照机器人分布式协同策略,控制机器人按照规划的路径进行移动,从而产生新的场景信息,重复步骤二,直到环境感知指令与理解出的场景相似度达到一致要求。
5.根据权利要求4所述的方法,其特征在于:所述资源条件约束包括电池电量、移动能力和感知能力。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于哈尔滨工业大学,未经哈尔滨工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910594481.6/1.html,转载请声明来源钻瓜专利网。





