[发明专利]一种基于情景构建的无人机自主鲁棒决策方法有效
申请号: | 201310455107.0 | 申请日: | 2013-09-29 |
公开(公告)号: | CN103488171A | 公开(公告)日: | 2014-01-01 |
发明(设计)人: | 胡笑旋;陈意;罗贺;马华伟;靳鹏;夏维 | 申请(专利权)人: | 合肥工业大学 |
主分类号: | G05D1/00 | 分类号: | G05D1/00 |
代理公司: | 安徽省合肥新安专利代理有限责任公司 34101 | 代理人: | 何梅生 |
地址: | 230009 *** | 国省代码: | 安徽;34 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明公开了一种基于情景构建的无人机自主鲁棒决策方法,其特征包括:1、定义战场中红方无人机的决策变量和蓝方阵地的决策变量;2、情景构建;3、利用影响图建模方法构建影响图;4、计算红方无人机决策候选行动方案集中每一种决策候选行动方案在情景集中的每一个情景下的期望效用值;5、红方无人机根据期望效用值进行鲁棒决策。本发明能有效解决无人机在复杂战场环境下的自主决策能力弱的问题,使得无人机在各种情景中都能进行自主决策,从而提高无人机的自主决策效率和决策效果,实现最优的行动方案选择,并保证决策方案的可行性、有效性和安全性。 | ||
搜索关键词: | 一种 基于 情景 构建 无人机 自主 决策 方法 | ||
【主权项】:
1.一种基于情景构建的无人机自主鲁棒决策方法,是应用于红方无人机攻打位于蓝方阵地中的蓝方高价值目标的复杂战场环境中,其特征在于,所述无人机自主鲁棒决策方法按如下步骤进行:步骤1:定义复杂战场环境中红方无人机的决策变量和蓝方阵地的决策变量令红方无人机携带电子支援措施状态Red_ESMState={开,关}、红方无人机携带SAR雷达状态Red_SARState={开,关}、红方无人机机载导弹类型Red_Missile={A,B}、红方无人机飞行高度Red_Height={中,低}、红方无人机发现蓝方高价值目标位置Red_GetLocation={是,否}、红方无人机被击中Red_Destroyed={是,否}、红方无人机攻击效果Red_Result={蓝方高价值目标完全损毁,蓝方高价值目标高度损毁,蓝方高价值目标中度损毁,蓝方高价值目标未损毁}、红方无人机决策候选行动方案集Red_Action={D1,D2,...,Di,...,Dn},n∈N,N为自然数,所述红方无人机决策候选行动方案集Red_Action中,Di为第i种红方无人机决策候选行动方案,i∈n;红方无人机攻打蓝方阵地的效用={Utility};令蓝方雷达状态Blue_RadarState={开,关}、蓝方电子干扰设备状态Blue_ECMState={开,关}、蓝方高炮Blue_HasAA={是,否}、蓝方导弹类型Blue_Missile={中程导弹,近程导弹,无导弹}、蓝方发现红方无人机位置Blue_GetLocation={是,否};令红方无人机与蓝方高价值目标之间的距离Distance={远,中,近};步骤2:情景构建利用所述红方无人机携带电子支援措施状态Red_ESMState、所述红方无人机携带SAR雷达状态Red_SARState、所述红方无人机机载导弹类型Red_Missile、所述红方无人机飞行高度Red_Height、所述蓝方雷达状态Blue_RadarState、所述蓝方电子干扰设备状态Blue_ECMState、所述蓝方高炮Blue_HasAA、所述蓝方导弹类型Blue_Missile以及红方无人机与蓝方高价值目标之间的距离Distance构建情景集S={S1,S2,...,Sj,...,Sm},m∈N,所述情景集S中第j个情景表示为:Sj=(Red_ESMState(j),Red_SARState(j),Red_Missile(j),Red_Height(j),Blue_RadarState(j),Blue_ECMState(j),Blue_HasAA(j),Blue_Missile(j),Distance(j)),j∈m;步骤3:根据所述红方无人机的决策变量和蓝方阵地的决策变量利用影响图建模方法按如下步骤构建影响图:步骤3.1:利用所述红方无人机的决策变量和蓝方阵地的决策变量构建有向无环图G:G=(V,E) (1)式(1)中,V代表所述有向无环图中节点的集合,E代表所述有向无环图中有向边的集合,并有:V=VC∪VD∪VU (2)式(2)中VC代表所述有向无环图中所有的随机节点,VD代表所述有向无环图中所有的决策节点,VU代表所述有向无环图中所有的效用节点,并有:VC=(Red_ESMState,Red_SARState,Red_Missile,Red_Height,Blue_RadarState,Blue_ECMState,Blue_HasAA,Blue_Missile,Distance,Red_GetLocation,Blue_GetLocation,Red_Result,Red_Destroyed);VD=(Red_Action);VU=(Utility);所述有向无环图中有向边的集合E={(Red_Missile,Red_Action),(Red_Height,Red_Action),(Red_ESMState,Red_Action),(Red_SARState,Red_Action),(Distance,Red_Action),(Blue_ECMState,Red_GetLocation),(Distance,Red_GetLocation),(Red_ESMState,Red_GetLocation),(Red_SARState,Red_GetLocation),(Red_GetLocation,Red_Result),(Distance,Red_Result),(Red_Action,Red_Result),(Red_Height,Red_Result),(Distance,Blue_GetLocation),(Red_SARState,Blue_GetLocation),(Blue_RadarState,Blue_GetLocation),(Red_Height,Red_Destroyed),(Blue_GetLocation,Red_Destroyed),(Blue_Missile,Red_Destroyed),(Distance,Red_Destroyed),(Red_Action,Red_Destroyed),(Blue_HasAA,Red_Destroyed),(Red_Result,Utility),(Red_Destroyed,Utility)};由所述所有的随机节点VC、所有的决策节点VD和所有的效用节点VU以及有向边的集合E构建出所述有向无环图;步骤3.2:利用所述红方无人机的决策变量和蓝方阵地的决策变量构建变量集合X;X=XC∪XD (3)式(3)中,XC是随机变量集合,并有:XC={Red_ESMState,Red_SARState,Red_Missile,Red_Height,Blue_RadarState,Blue_ECMState,Blue_HasAA,Blue_Missile,Distance,Red_GetLocation,Blue_GetLocation,Red_Result,Red_Destroyed};根据所述红方无人机的决策变量和蓝方阵地的决策变量获得所述随机变量集合XC中每个随机变量的状态空间Ω为:ΩRed_ESMState={开,关},ΩRed_SARState={开,关},ΩRed_Missile={A,B}、ΩRed_Height={中,低},ΩBlue_RadarState={开,关},ΩBlue_ECMState={开,关},ΩBlue_HasAA={是,否},ΩBlue_Missile={中程导弹,近程导弹,无导弹},ΩDistance={远,中,近},ΩRed_GetLocation={是,否},ΩBlue_GetLocation={是,否},ΩRed_Result={蓝方高价值目标完全损毁,蓝方高价值目标高度损毁,蓝方高价值目标中度损毁,蓝方高价值目标未损毁},ΩRed_Destroyed={是,否};式(3)中,XD是决策变量集合,并有:XD={Red_Action};根据所述红方无人机决策候选行动方案集Red_Action获得决策变量集合XD中决策变量Red_Action的备选方案集为{D1,D2,……,Dn},n∈N;步骤3.3:利用所述红方无人机的决策变量和蓝方阵地的决策变量构建随机变量概率分布的集合;所述随机变量概率分布的集合为:Pr={P(Red_ESMState),P(Red_SARState),P(Red_Missile),P(Red_Height),P(Blue_RadarState),P(Blue_ECMState),P(Blue_HasAA),P(Blue_Missile),P(Red_GetLocationPar(Red_GetLocation)),P(Blue_GetLocationPar(Blue_GetLocation)),P(Red_ResultPar(Red_Result)),P(Red_DestroyedPar(Red_Destroyed)),P(Distance)}; (4)式(4)中,Par(Red_GetLocation)为所述随机变量集合XC中随机变量Red_GetLocation的父节点集合,并有Par(Red_GetLocation)={Red_ESMState,Red_SARState,Blue_ECMState,Distance};Par(Blue_GetLocation)为所述随机变量Blue_GetLocation的父节点集合,并有Par(Blue_GetLocation)={Blue_RadarState,Red_SARState,Distance};Par(Red_Result)为所述随机变量Red_Result的父节点集合,并有Par(Red_Result)={Red_Height,Red_Action,Distance,Red_GetLocation};Par(Red_Destoryed)为所述随机变量Red_Destoryed的父节点集合,并有Par(Red_Destoryed)={Red_Height,Blue_HasAA,Blue_Missile,Distance,Red_Action,Blue_GetLocation};步骤3.4:利用所述红方无人机的决策变量构建效用函数的集合;令所述效用函数的集合为U:U={U(Red_Result,Red_Destroyed)} (5)式(5)中,U(Red_Result,Red_Destroyed)为所述所有的效用节点VU中效用节点Utility的效用函数,并有:
式(6)中,U1、U2、U3、U4、U5、U6、U7和U8分别表示在不同条件下效用节点Utility的效用函数值;利用所述有向无环图、变量集合、随机变量概率分布的集合和效用函数的集合构建出所述影响图;步骤4:根据所述影响图利用式(7)获得红方无人机决策候选行动方案集Red_Action中每一种红方无人机决策候选行动方案在情景集S中的每一个情景下的期望效用值EU(Di,Sj):EU(Di,Sj)=ΣU(Red_Result,Red_Destroyed)P(Red_Result,Red_Destroyede) (7)式(7)中,e代表证据,Di表示第i种红方无人机决策候选行动方案,i∈n,Sj表示第j个情景,j∈m;步骤5:红方无人机根据所述期望效用值EU(Di,Sj)进行鲁棒决策;步骤5.1:选择鲁棒决策候选行动方案;令红方无人机决策候选行动方案集Red_Action中的决策候选行动方案Df,在情景集S中满足min(EU(Df,Sj))≥α,(f∈n,j∈m,j=1,2,...,m),α为预定的收益阈值,则决策候选行动方案Df为鲁棒决策候选行动方案并保留Df;判断所有的决策候选行动方案,保留所有的鲁棒决策候选行动方案,删除剩余决策候选行动方案;步骤5.2:识别最优鲁棒行动方案;利用式(8)获得所述所有的鲁棒决策候选行动方案在每一个情景中的最大期望效用值集EU+:EU + = { EU j + | EU j + = max EU ( D i , S j ) , i ∈ n , j ∈ m } - - - ( 8 ) ]]> 式(8)中:
表示第j种情景下所有的鲁棒决策候选行动方案所对应的期望效用值EU(Di,Sj)中的最大期望效用值;利用式(9)获得所述鲁棒决策候选行动方案在每一个情景中的最小期望效用值集EU-:EU - = { EU j - | EU j - = min EU ( D i , S j ) , i ∈ n , j ∈ m } - - - ( 9 ) ]]> 式(9)中:
表示第j种情景下所有的鲁棒决策候选行动方案所对应的期望效用值EU(Di,Sj)中的最小期望效用值;利用式(10)获得所有的鲁棒决策候选行动方案与所述最大期望效用值集EU+的距离![]()
d i + = Σ j = 1 m ( EU ( D i , S j ) - EU j + ) 2 - - - ( 10 ) ]]> 利用式(11)获得所有的鲁棒决策候选行动方案与所述最小期望效用值集EU-的距离![]()
d i - = Σ j = 1 m ( EU ( D i , S j ) - EU j - ) 2 - - - ( 11 ) ]]> 利用式(12)获得所有的鲁棒决策候选行动方案的贴近度ci:c i = d i + d i + + d i - - - - ( 12 ) ]]> 选择所述贴近度ci最大的鲁棒决策候选行动方案为最优鲁棒行动方案。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于合肥工业大学,未经合肥工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201310455107.0/,转载请声明来源钻瓜专利网。