[发明专利]一种基于兽群觅食行为的群体机器人双环境区域覆盖方法在审
| 申请号: | 202210275504.9 | 申请日: | 2022-03-21 |
| 公开(公告)号: | CN114740840A | 公开(公告)日: | 2022-07-12 |
| 发明(设计)人: | 张军旗;祖鹏;王成;康琦;臧笛;刘春梅 | 申请(专利权)人: | 同济大学 |
| 主分类号: | G05D1/02 | 分类号: | G05D1/02 |
| 代理公司: | 南京禹为知识产权代理事务所(特殊普通合伙) 32272 | 代理人: | 沈鑫 |
| 地址: | 200092 *** | 国省代码: | 上海;31 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 兽群 觅食 行为 群体 机器人 环境 区域 覆盖 方法 | ||
1.一种基于兽群觅食行为的群体机器人双环境区域覆盖方法,其特征在于,包括:
建立区域覆盖场景,并初始化算法参数;
各机器人初始化其记录的待覆盖区域信息,通过扫描环境并与其他机器人通信更新待覆盖区域信息,基于所述待覆盖区域信息获得候选点集合;
若所述候选点集合不为空,则为每个候选点计算奖励函数,选择具有最大奖励的目标点为下一步目标位置并转至目标点判断步骤,若所述候选点集合为空则转到路径生成步骤;
基于点对点规划器生成一条到距离最近的未覆盖目标点的路径,选择所述路径中的下一个目标点作为下一步目标位置;
判断是否达到最大运行时间或已覆盖所有目标点,若是,则任务完成,否则在到达下一步目标位置后转到扫描环境步骤。
2.如权利要求1所述的基于兽群觅食行为的群体机器人双环境区域覆盖方法,其特征在于,所述建立区域覆盖场景,并初始化算法参数包括:用一组目标点表示待覆盖区域,初始化n个机器人的位置,初始化邻域范围μ,奖励函数参数λ,ωp,ωs,ωb,最大运行时间tmax,各机器人初始化其虚拟兽群Φ的位置。
3.如权利要求1或2所述的基于兽群觅食行为的群体机器人双环境区域覆盖方法,其特征在于,所述各机器人初始化其记录的待覆盖区域信息,通过扫描环境并与其他机器人通信更新待覆盖区域信息,基于所述待覆盖区域信息获得候选点集合包括:机器人i(1≤i≤n)初始化其未覆盖目标点集合为空集,初始化已覆盖目标点集合为其中为机器人i的初始位置,初始化被障碍物占据的目标点集合为空集,初始化当前目的地目标点为初始位置
所述机器人i扫描环境并将所有新发现的目标点添加到其未覆盖目标点集合中,根据障碍物的位置和轨迹确定被障碍物占据的目标点,通过与其他机器人共享信息更新未覆盖目标点集合、已覆盖目标点集合和被障碍物占据的目标点集合;
所述候选点集合包含两部分,一是位于目的地目标点邻域内的未覆盖且未被占据的目标点,二是位于目的地目标点与机器人虚拟兽群位置间的未覆盖且未被占据的目标点。
4.如权利要求3所述的基于兽群觅食行为的群体机器人双环境区域覆盖方法,其特征在于,所述若候选点集合不为空,则为每个候选点计算奖励函数,选择具有最大奖励的目标点为下一步目标位置包括:
机器人为它的每一个候选点oj计算总奖励函数R(oj),总奖励函数由五个部分组成:基于虚拟兽群的兽群吸引奖励Rh、基于其他机器人的动态捕食者规避奖励Rdp、平滑度奖励Rs、边界奖励Rb和遗漏权重W,其计算方法如下:
其中,ωp,ωs,ωb分别表示与动态捕食者回避奖励、平滑度奖励和边界奖励的影响相关的权重因子。
5.如权利要求4所述的基于兽群觅食行为的群体机器人双环境区域覆盖方法,其特征在于,所述兽群吸引奖励Rh的表达式为:
其中,H(oj)是候选点oj到虚拟兽群Φ的距离,和分别是机器人i的候选目标点到Φ的最大和最小距离。
6.如权利要求4所述的基于兽群觅食行为的群体机器人双环境区域覆盖方法,其特征在于,所述动态捕食者规避奖励Rdp的表达式为:
其中,为机器人i的第k个动态捕食者(k∈{1,2,…,n}\i),为候选点oj到第k个动态捕食者的距离,和分别是机器人i的候选目标点到的最大和最小距离,用于控制第k个动态捕食者的影响,其计算方法如下:
其中,κ为斜率,a为从到第k个动态捕食者的距离,b为有效范围。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于同济大学,未经同济大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210275504.9/1.html,转载请声明来源钻瓜专利网。





