[发明专利]一种基于平行数据的社会演化方法在审
| 申请号: | 202011231603.4 | 申请日: | 2020-11-06 |
| 公开(公告)号: | CN112348186A | 公开(公告)日: | 2021-02-09 |
| 发明(设计)人: | 张卫山;侯召祥 | 申请(专利权)人: | 中国石油大学(华东) |
| 主分类号: | G06N3/08 | 分类号: | G06N3/08 |
| 代理公司: | 暂无信息 | 代理人: | 暂无信息 |
| 地址: | 266580 山*** | 国省代码: | 山东;37 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 平行 数据 社会 演化 方法 | ||
1.一种基于平行数据的社会演化方法,整合了社会、经济等因素,形成了一个可以模拟和演化的虚拟社会。一方面,该方法用于计算突发事件造成的社会整体损失。另一方面,它还可以用来计算强化学习的奖励来评价策略。我们利用强化学习对当前环境进行建模,通过不断探索和优化智能体来寻找解决方案,从而将异常事件造成的全局损失降到最低。反过来,最终采取的策略会影响社会模型,实现真实社会和虚拟社会动态互动,平行演化。包括以下步骤:
步骤(1)、综合考虑多种因素,建模经济、社会价值模型;
步骤(2)、建模当前社会的状态,作为强化学习可以感知的环境;
Si=(Demand1i,Value1i,…,Demandmi,Valueni,Resource1i,…,Resourceni,Otheri) (3)
步骤(3)、根据经济、社会价值模型,建模强化学习的奖励机制;
步骤(4)、根据当前的环境,建模强化学习的动作空间;
A=Number(1,2,…,n)+Quantity(1,2,..m) (5)
步骤(5)、步骤(2)(3)(4)的结果分别作为强化学习的环境、奖励、动作,选用DeepDeterministic Policy Gradient(DDPG)强化学习模型,通过探索选取当前最优的一个动作,得到奖励,然后计算损失反向传播进行训练。
步骤(6)、通过选择步骤(5)的动作,相关的环境状态发生变化,实现社会演化,重复步骤(2)、(3)、(4)、(5),直到训练结束,最终得到最优的动作序列。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国石油大学(华东),未经中国石油大学(华东)许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011231603.4/1.html,转载请声明来源钻瓜专利网。
- 上一篇:一种系留旋翼自动收放线机构及其使用方法
- 下一篇:一种智能材料打磨设备
- 数据显示系统、数据中继设备、数据中继方法、数据系统、接收设备和数据读取方法
- 数据记录方法、数据记录装置、数据记录媒体、数据重播方法和数据重播装置
- 数据发送方法、数据发送系统、数据发送装置以及数据结构
- 数据显示系统、数据中继设备、数据中继方法及数据系统
- 数据嵌入装置、数据嵌入方法、数据提取装置及数据提取方法
- 数据管理装置、数据编辑装置、数据阅览装置、数据管理方法、数据编辑方法以及数据阅览方法
- 数据发送和数据接收设备、数据发送和数据接收方法
- 数据发送装置、数据接收装置、数据收发系统、数据发送方法、数据接收方法和数据收发方法
- 数据发送方法、数据再现方法、数据发送装置及数据再现装置
- 数据发送方法、数据再现方法、数据发送装置及数据再现装置





