[发明专利]一种基于深度强化学习的移动机器人视觉跟随方法有效

专利信息
申请号: 201910361528.4 申请日: 2019-04-30
公开(公告)号: CN110084307B 公开(公告)日: 2021-06-18
发明(设计)人: 张云洲;王帅;庞琳卓;刘及惟;王磊 申请(专利权)人: 东北大学
主分类号: G06K9/62 分类号: G06K9/62;G06N3/04;G05D1/12
代理公司: 大连理工大学专利中心 21200 代理人: 陈玲玉;梅洪玉
地址: 110819 辽宁*** 国省代码: 辽宁;21
权利要求书: 查看更多 说明书: 查看更多
摘要: 发明提出了一种基于深度强化学习的移动机器人视觉跟随方法。采用“模拟图像有监督预训练+模型迁移+RL”的架构,首先在真实环境中收集少量的数据,采用计算机程序和图像处理技术对数据集进行自动化扩充,以便在短时间内得到大量可以适应真实场景的模拟数据集,用于对跟随机器人的方向控制模型进行有监督训练;其次,搭建用于机器人方向控制的CNN模型,并用自动化构造的模拟数据集对其进行有监督训练,使其作为预训练模型;接着将预训练模型的知识迁移到基于DRL的控制模型中,令机器人在真实环境中执行跟随任务,结合强化学习机制,使得机器人可以在环境交互的过程中一边跟随,一边对方向控制性能进行提升,不仅鲁棒性高,且大大降低成本。
搜索关键词: 一种 基于 深度 强化 学习 移动 机器人 视觉 跟随 方法
【主权项】:
1.一种基于深度强化学习的移动机器人视觉跟随方法,其特征在于,包括如下步骤:步骤一:数据集的自动化构造;(1)准备一个被跟随的目标易与背景区分开的简单场景;在简单场景下,从跟随机器人的视野采集目标人在机器人视野中不同位置的视野图像;(2)准备跟随机器人的应用场景作为复杂场景图像,利用图像掩模技术将目标人从简单场景的背景中提取出来,进而与复杂场景相叠加,即得到目标人处于复杂场景下的图像,并且直接为合成的复杂场景图像赋予相应的简单场景下的动作空间标签;步骤二:基于CNN的方向控制模型搭建及训练;利用步骤一自动化构造的数据集对CNN模型进行有监督训练,使得CNN能够达到通过机器人视野输入图像输出对应动作状态的效果,从机器人的单目彩色相机采集到的图像,在输入给CNN之前,先将其RGB三通道转换为HSV通道,再作为输入图像送给CNN,之后网络可以输出对应的动作状态;步骤三:模型迁移;将步骤二训练好的CNN参数权重作为初始参数迁移给DRL模型,使得DRL模型获得与CNN模型相同的控制水平;步骤四:基于DRL的方向控制模型搭建及训练;将步骤三初始参数迁移后的DRL模型用于机器人端进行使用,并且通过不断与环境进行交互,使机器人能够不断更新模型,学习到当前所处的环境。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于东北大学,未经东北大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/patent/201910361528.4/,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top