[发明专利]一种多智能体强化学习方法及系统在审
申请号: | 202210233742.3 | 申请日: | 2022-03-10 |
公开(公告)号: | CN114676846A | 公开(公告)日: | 2022-06-28 |
发明(设计)人: | 时大明;范文慧;刘义;黄亚东 | 申请(专利权)人: | 清华大学 |
主分类号: | G06N20/00 | 分类号: | G06N20/00;G06F9/50 |
代理公司: | 北京路浩知识产权代理有限公司 11002 | 代理人: | 孟省 |
地址: | 100084 北*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 智能 强化 学习方法 系统 | ||
1.一种多智能体强化学习方法,其特征在于,包括:
获取多智能体的共享经验数据集;
根据所述共享经验数据集,对初始策略进行训练,得到共享策略;
获取所述多智能体当前的目标状态;
将所述目标状态输入至所述共享策略,获取目标决策动作。
2.根据权利要求1所述的多智能体强化学习方法,其特征在于,所述获取多智能体的共享经验数据集,包括:
获取所述多智能体在训练或执行过程中的每个决策得到的单一经验数据;
将所述单一经验数据共同存储,形成所述共享经验数据集。
3.根据权利要求2所述的多智能体强化学习方法,其特征在于,所述单一经验数据至少包括原系统状态、目标智能体的决策动作、多智能体中其他智能体的决策动作、目标智能体执行决策动作后的系统状态、目标智能体经过自身决策动作获得的奖励以及多智能体中其他智能体获得的奖励。
4.根据权利要求1所述的多智能体强化学习方法,其特征在于,所述共享策略通过人工神经网络、树状数组或多维矩阵表达。
5.根据权利要求1-4中任一项所述的多智能体强化学习方法,其特征在于,所述将目标观测信息输入至共享策略,获取目标决策动作,之后还包括:
获取与所述目标决策动作相对应的经验数据,并将其存入所述共享经验数据集。
6.根据权利要求1所述的多智能体强化学习方法,其特征在于,所述根据所述共享经验数据集,对初始策略进行训练,得到共享策略,包括:
采用Q-learning算法对所述初始策略进行训练,得到所述共享策略。
7.一种多智能体强化学习系统,其特征在于,包括:
经验数据获取模块,用于获取多智能体的共享经验数据集;
共享策略获取模块,用于根据所述共享经验数据集,对初始策略进行训练,得到共享策略;
目标状态获取模块,用于获取所述多智能体当前的目标状态;
决策动作获取模块,用于将所述目标状态输入至所述共享策略,获取目标决策动作。
8.一种电子设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1至6任一项所述多智能体强化学习方法的步骤。
9.一种非暂态计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至6任一项所述多智能体强化学习方法的步骤。
10.一种计算机程序产品,包括计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至6任一项所述多智能体强化学习方法的步骤。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于清华大学,未经清华大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210233742.3/1.html,转载请声明来源钻瓜专利网。