|
钻瓜专利网为您找到相关结果 1747个,建议您 升级VIP下载更多相关专利
- [发明专利]一种LVS运维控制系统、方法和装置-CN202110033684.5有效
-
程煜鹏;杨伟康
-
杭州萤石软件有限公司
-
2021-01-12
-
2022-05-24
-
G06F11/30
- 本发明提供了一种LVS运维控制系统、方法和装置,所述系统包括:LVS管理系统、Agent管理系统、以及部署在LVS服务器上的第一Agent和部署在真实服务器RS上的第二Agent;其中,所述LVS管理系统负责配置数据业务对应的LVS实例信息,将所述LVS实例信息中包括的第一配置信息经由所述Agent管理系统下发到第一Agent,使得第一Agent对第一配置信息进行一致性检测并在一致性检测通过后根据第一配置信息对第一Agent所在LVS服务器执行针对所述数据业务的LVS实例配置;以及将所述LVS实例信息中包括的第二配置信息经由所述Agent管理系统下发到所述数据业务对应的第二Agent,使得所述数据业务对应的第二Agent根据第二配置信息执行对该第二Agent所在RS进行针对所述数据业务的LVS实例配置。
- 一种lvs控制系统方法装置
- [发明专利]基于Agent的风/光互补发电场的能量管理控制系统-CN201410723454.1在审
-
冯炳和
-
冯炳和
-
2014-12-02
-
2015-04-01
-
H02J3/46
- 本发明公开了一种基于Agent的风/光互补发电场的能量管理控制系统,采用Agent对多台风力发电装置和太阳能发电装置进行能量管理控制;该能量管理控制系统包括一个能量管理控制Agent或多个能量管理控制Agent,Agent模型为GRATE*BDI模型;当包括多个能量管理控制Agent时,Agent模型间的合作机制是采用协调机制,分别采用固定主从关系和不固定主从关系二种方式,并采用通过部分全局规划的协调的合作方法本发明通过对风/光发电性能的定量研究、系统体系结构和Agent模型与合作机理的研究,开发一种风力/太阳能互补发电的基于Agent的能量管理控制系统,使该系统能应用到风/光互补发电场中,为我国新能源的开发做出贡献
- 基于agent互补电场能量管理控制系统
- [发明专利]一种分布式应用监控方法、装置以及存储介质-CN202011251624.2在审
-
张丽萍
-
平安普惠企业管理有限公司
-
2020-11-11
-
2021-02-12
-
G06F11/30
- 本发明提供了一种分布式应用监控方法、装置以及存储介质,该方法包括获取多个不同层级的监控工具对应的多个代理Agent的安装信息并保存,其中,多个不同层级的监控工具预先接入统一监控平台;依据保存的多个代理Agent的安装信息,将多个代理Agent统一安装至分布式应用所在主机,利用多个代理Agent监控分布式应用得到监控数据;接收任一主机中的代理Agent反馈的监控数据,将接收到的监控数据提供至代理Agent对应的监控工具本发明实施例在统一监控平台接入多个不同层级的监控工具,能够实现对应用更加全面的多层级监控,扩大对应用监控的覆盖面,而且依据保存的多个代理Agent的安装信息对多个代理Agent进行统一安装,大大提高了代理Agent的安装效率。
- 一种分布式应用监控方法装置以及存储介质
- [发明专利]大气污染响应的植物智能体模型设计方法-CN201810025793.0有效
-
周红;曾祎瑾;肖文韬
-
厦门大学
-
2018-01-11
-
2020-10-30
-
G06F30/20
- 大气污染响应的植物智能体模型设计方法,包括剂量‑反应模型及参数化定义部分,其通过对植物Agent的反应趋势进行模拟,得到描述外源污染物与植物生理反应之间关系的S形剂量反应曲线,以及定义该曲线所需的四个参数;植物Agent内部状态集合部分,其基于第一部分剂量‑反应的植物响应模式,选取四个属性来抽象表达植物的个体伤害差异,定义植物Agent的状态属性信息;植物Agent适应性行为规则部分,其选取植物对大气污染物的反应强度指标,细化衡量植物Agent受损程度的规则,并在植物Agent的适应性建模上,通过植物Agent行为规则和植物Agent适应性参数的变化来实现植物对响应环境的动态改变,建立植物Agent运行过程。
- 大气污染响应植物智能模型设计方法
- [发明专利]一种基于深度强化学习的多agent协作框架-CN201910347694.9有效
-
孙立博;秦文虎;翟金凤
-
东南大学
-
2019-04-26
-
2021-09-17
-
G06N20/00
- 本发明公开一种基于深度强化学习的多agent协作框架,其包括agent,billboard,基于actor‑critic的深度强化学习模块以及下一时刻状态计算模块。agent由当前状态、速度和期望目标定义;billboard负责信息的存储、更新和传递;基于Actor‑Critic的深度强化学习模块中actor根据当前环境状态和agent自身状态选择合适动作,并通过Critic结合各agent的状态序列给出的评价不断进行训练学习,从而获取最优控制策略;下一时刻状态计算模块根据各agent的当前状态和采取的动作分别计算各agent下一时刻的状态,并与billboard本发明提出的基于深度强化学习的多agent协作框架具有较好的可扩展性和较强的通用性,可以为实现多样的多agent协作提供技术方案。
- 一种基于深度强化学习agent协作框架
|