[发明专利]使用目标特定动作值函数的多目标强化学习在审
申请号: | 202180013425.4 | 申请日: | 2021-02-08 |
公开(公告)号: | CN115066695A | 公开(公告)日: | 2022-09-16 |
发明(设计)人: | 阿巴斯·阿卜杜勒马利基;桑迪·涵·黄 | 申请(专利权)人: | 渊慧科技有限公司 |
主分类号: | G06N3/08 | 分类号: | G06N3/08;G06N3/00 |
代理公司: | 中原信达知识产权代理有限责任公司 11219 | 代理人: | 周亚荣;邓聪惠 |
地址: | 英国*** | 国省代码: | 暂无信息 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 使用 目标 特定 动作 函数 多目标 强化 学习 | ||
1.一种用于通过强化学习来训练神经网络系统的方法,所述神经网络系统被配置为接收表征由智能体交互的环境的状态的输入观测并且根据旨在满足多个目标的策略来选择和输出动作,所述方法包括:
获得一个或多个轨迹的集合,每个轨迹包括环境的状态、响应于所述状态根据先前策略由所述智能体应用于所述环境的动作、以及用于所述动作的奖励集合,每个奖励与所述多个目标中的对应目标相关;
基于一个或多个轨迹的所述集合来确定所述多个目标中的每个目标的动作值函数,每个动作值函数确定表示根据所述对应目标的估计回报的动作值,所述估计回报将由所述智能体根据所述先前策略响应于给定状态执行给定动作而产生;以及
基于所述多个目标的所述动作值函数的组合来确定更新的策略。
2.根据任一项前述权利要求所述的方法,其中,确定更新的策略包括:
确定所述多个目标中的每个目标的目标特定策略,每个目标特定策略是基于所述对应目标的所述对应动作值函数来确定;以及
通过将所述更新的策略的策略参数集合拟合到所述目标特定策略的组合来确定所述更新的策略。
3.根据权利要求2所述的方法,其中,将所述更新的策略的所述策略参数集合拟合到目标特定策略的所述组合包括确定使所述更新的策略与所述目标特定策略的所述组合之间的差异最小化的所述策略参数集合。
4.根据权利要求2或权利要求3所述的方法,其中,所述更新的策略的所述策略参数集合被约束,使得所述更新的策略与所述先前策略之间的差异不能超过信任区阈值。
5.根据权利要求2-4中任一项所述的方法,其中,确定每个目标的目标特定策略包括确定所述目标特定策略的目标特定策略参数,所述目标特定策略参数相对于所述先前策略根据所述对应目标的动作值函数增加预期回报。
6.根据权利要求5所述的方法,其中,确定每个目标的所述目标特定策略包括:受所述目标特定策略不能够与所述先前策略差异多于对应差异阈值的约束,相对于所述先前策略根据所述对应目标的动作值函数确定使所述预期回报最大化的所述目标特定策略的目标特定策略参数。
7.根据权利要求6所述的方法,其中,所述对应差异阈值表示所述对应目标对所述更新的策略的相对贡献。
8.根据权利要求2-7中任一项所述的方法,其中,所述目标特定策略是非参数策略。
9.根据权利要求2-8中任一项所述的方法,其中,每个目标特定策略qk(a|s)根据所述目标特定策略的目标的经缩放的动作值函数来确定,其中,所述经缩放的动作值函数由取决于对所述目标的偏好的值来缩放。
10.根据权利要求9在从属于权利要求6时所述的方法,其中,取决于对所述目标的偏好的所述值取决于所述目标的所述差异阈值。
11.根据权利要求8-10中任一项所述的方法,其中,每个目标特定策略qk(a|s)通过计算下式来确定:
其中:
N是归一化常数;
k是所述目标;
a是动作;
s是状态;
πold(a|s)是所述先前策略;
Qk(s,a)是用于所述目标的所述动作值函数;以及
ηk是温度参数。
12.根据权利要求11所述的方法,其中,针对每个目标k,所述温度参数ηk通过求解以下等式来确定:
其中:
∈k是所述对应目标的所述差异阈值;以及
μ(s)是访问分布。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于渊慧科技有限公司,未经渊慧科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202180013425.4/1.html,转载请声明来源钻瓜专利网。
- 上一篇:生物标记物及其在治疗慢性乙型肝炎感染中的用途
- 下一篇:充气轮胎