[发明专利]一种基于多模态特征的移动机器人视觉-语言导航方法在审
| 申请号: | 202210586122.8 | 申请日: | 2022-05-27 |
| 公开(公告)号: | CN115082915A | 公开(公告)日: | 2022-09-20 |
| 发明(设计)人: | 董敏;钟浩钊;毕盛 | 申请(专利权)人: | 华南理工大学 |
| 主分类号: | G06V20/62 | 分类号: | G06V20/62;G06N3/04;G06N3/08;G06V10/75;G06V10/764;G06V10/774 |
| 代理公司: | 广州市华学知识产权代理有限公司 44245 | 代理人: | 冯炳辉 |
| 地址: | 510640 广*** | 国省代码: | 广东;44 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 多模态 特征 移动 机器人 视觉 语言 导航 方法 | ||
1.一种基于多模态特征的移动机器人视觉-语言导航方法,其特征在于,包括以下步骤:
1)使用Transformer对输入的自然语言指令进行编码,得到语言特征向量和初始的状态特征向量;
2)对于当前时刻能导航的方向对应的图像,首先使用ResNet-152提取得到场景特征向量,然后使用Faster R-CNN进行目标检测,对目标检测得到的类别进行独热编码得到目标检测特征向量,最后将场景特征向量、目标检测特征向量和对应方向编码得到的方向特征向量拼接输入到视觉编码器中,得到视觉特征向量;
3)除初始时刻外,将机器人上一个时刻所选择的动作对应的视觉隐层表示加入到历史特征向量;
4)使用跨模态编码模块OHAMT对得到的语言特征向量、视觉特征向量、历史特征向量以及机器人上一个时刻得到的状态特征向量进行跨模态编码,得到当前时刻的状态特征向量和视觉隐层表示;
5)将步骤4)得到的视觉隐层表示和OHAMT中最后一个自注意力层得到的状态特征隐层表示输入到动作决策模块ActionPredictor中,得到动作概率分布,然后机器人根据动作概率分布选取下一步动作并执行;
6)重复步骤2)-步骤5)直到机器人停止移动,最后更新模型的权重,即跨模态编码模块OHAMT和动作决策模块ActionPredictor的权重。
2.根据权利要求1所述的一种基于多模态特征的移动机器人视觉-语言导航方法,其特征在于,所述步骤1)包括以下步骤:
1.1)对自然语言指令进行预处理,包括在自然语言指令第一个单词前插入[CLS]标记,在最后一个单词后插入[SEP]标记,并将单词数量不足80的自然语言指令使用[PAD]标记补齐;
1.2)使用Transformer对预处理后的自然语言指令进行编码,[CLS]标记经过编码后得到初始的状态特征向量其余单词和标记编码后得到语言特征向量其中是向量空间。
3.根据权利要求1所述的一种基于多模态特征的移动机器人视觉-语言导航方法,其特征在于,所述步骤2)包括以下步骤:
2.1)使用在ImageNet训练,然后在Place365调优得到的ResNet-152对当前时刻t能导航的方向i对应的图像It,i提取得到场景特征向量其中是向量空间;
2.2)使用BUTD中预训练的Faster R-CNN对It,i进行目标检测,然后对目标检测得到的类别进行过滤,仅保留在R2R训练集的语料中出现过的类别,将其进行独热编码,得到目标检测特征向量
2.3)将It,i对应的观察角度和高度编码成方向特征向量
2.4)使用步骤2.1)-步骤2.3)得到的场景特征向量、目标检测特征向量和方向特征向量拼接得到特征向量然后将Ft,i输入到视觉编码器VisionEncoder中,得到视觉特征向量其中,视觉编码器VisionEncoder定义如下:
Vt,i=VisionEncoder(Ft,i)=LayerNorm(Linear(Ft,i))
式中,LayerNorm是层归一化,Linear是线性层。
4.根据权利要求1所述的一种基于多模态特征的移动机器人视觉-语言导航方法,其特征在于:在步骤3)中,除初始时刻外,将机器人上一个时刻所选择的动作对应的视觉隐层表示与上一个时刻的历史特征向量Ht-1进行拼接得到当前时刻的历史特征向量Ht。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华南理工大学,未经华南理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210586122.8/1.html,转载请声明来源钻瓜专利网。





