首页> 中国专利> 一种面向智能对抗的多方案自主切换方法

一种面向智能对抗的多方案自主切换方法

摘要

本发明提供一种面向智能对抗的多方案自主切换方法,包括:利用对抗推演仿真系统,基于预设对抗推演场次数量,从己方行动方案列表切换行动方案进行对抗,并根据对抗结果对己方行动方案列表中各行动方案进行排序;基于己方行动方案排序结果确定最优行动方案;本发明能够在大型多回合制对抗推演过程中,根据历史推演结果记录进行多方案优劣排序,实现各场推演间多套方案的在线自主切换;同时本发明深入考虑分析战场态势信息,在双方实力的基础上,提前制定多套备选方案,以便在对抗正式开始前,根据获知的态势情报和历史对抗数据,确定方案切换时机以选择最合适的方案,从而大大提高了获胜的概率。

著录项

法律信息

  • 法律状态公告日

    法律状态信息

    法律状态

  • 2022-11-08

    实质审查的生效 IPC(主分类):G09B 9/00 专利申请号:202210455403X 申请日:20220427

    实质审查的生效

  • 2022-08-09

    公开

    发明专利申请公布

说明书

技术领域

本发明涉及信息技术领域,具体涉及一种面向智能对抗的多方案自主切换方法。

背景技术

联合作战智能对抗推演是“背靠背”式的。在每场推演对抗开始前,会公开双方所处战场环境和兵力构成等详细信息。同时还会明确此次对抗中各方的任务目标,以及相应的胜负积分规则。除此以外,红蓝双方的行动方案、兵力部署,以及行动计划,都是相互透明的。推演对抗开始后,通常需要先运用必要的侦察手段来获知对方的兵力初始部署和兵力调动信息,使得本方兵力智能体能够根据此态势情况以及后续变化,按照对抗规则和预定作战方案不断实施相应的作战行动,直至分出胜负或者推演时间结束。整个推演过程,既是红蓝双方智能体应变能力的较量,又是对抗双方作战行动方案优劣的比较。

联合作战智能对抗推演可以通过多轮次的模拟仿真,对同一作战构想下的具体方案进行反复打磨优化,是一种面向指挥作业单位的,揭示作战规律,熟悉装备运用,训练指挥能力的有效手段。对抗双方需要根据对目标任务与战场环境的理解,以及对敌方实力的分析,提前研判对方可能的兵力部署与作战计划,进而确定本方兵力部署,并制定相应的行动计划。在联合作战推演仿真过程中,如果能准确预测对方的作战部署与行动计划,便可以有针对性的安排本方作战部署,制定最有利的行动方案,从而在一开始就为最终的推演结果奠定胜利基石。然而,由于战争迷雾的存在,战场情况复杂多变,具有很高的不确定性,对抗推演过程中往往难以提前掌握对方真实情况,这给制定方案带来了巨大的困难和挑战,从而对指挥员提出了较高的能力要求。

一套严谨细密、周全详细的方案,往往需要考虑多种可能敌情下的应对措施,从而保证本方有较高的获胜概率。但由于作战对抗的不确定性和复杂性特点,仅凭一套方案往往难以应对多种不同敌情。同时,由于制定详细的方案复杂度较高,而基于一套方案进行临时调整,不仅难度极大,而且仓促下也通常难以考虑周全,面临较大的失败风险。因此,基于单一行动方案,很难保证在未知、多变的战场环境中稳操胜券,反而有可能被对方克制打压。

发明内容

为了解决现有技术中所存在的问题,本发明提供一种面向智能对抗的多方案自主切换方法,包括:

获取预先确定的己方行动方案列表;所述己方行动方案列表包括至少一个己方行动方案;

利用对抗推演仿真系统,基于预设对抗推演场次数量,从己方行动方案列表切换行动方案进行对抗,并根据对抗结果对己方行动方案列表中各行动方案进行排序;

基于所述己方行动方案排序结果确定最优行动方案。

优选的,所述利用对抗推演仿真系统,基于预设对抗推演场次数量,从己方行动方案列表切换行动方案进行对抗,并根据对抗结果对己方行动方案列表中各行动方案进行排序,包括:

步骤1:从预先确定的己方行动方案列表中选择第一个己方行动方案;

步骤2:基于己方行动方案与对方行动方案利用智能对抗推演仿真系统进行对抗,并记录对抗情况;根据对抗情况从己方行动方案列表中确定下场对抗的己方行动方案,并判断是否达到对抗推演场次,如果达到则执行结束;否则执行步骤3;

步骤3:当己方行动方案列表中所有行动方案执行完成后,基于历史对抗情况对己方行动方案列表中所有己方行动方案进行排序;

步骤4:从排序后的己方行动方案列表中选择第一个己方行动方案执行步骤2,直到达到预设对抗推演场次,执行结束。

优选的,所述记录对抗情况,包括:

记录己方行动方案i的第r

优选的,所述当前行动方案i的历史推演总得分

所述当前行动方案i的历史场均得分

式中,r

优选的,所述从预先确定的己方行动方案列表中选择第一个己方行动方案之前还包括:

对每个行动方案设定最小试探推演场数min(R

所述最小试探推演场数min(R

优选的,所述最小试探推演场数min(R

式中,E为用户期望的推演结果置信度,ε为系统的推演结果置信度。

优选的,所述根据对抗情况从己方行动方案列表中确定下场对抗的己方行动方案,包括:

如果本场己方胜利,则己方行动方案列表中当前选择的己方行动方案为下场对抗的己方行动方案,否则,检查当前的己方行动方案与当前对方行动方案的对抗次数是否达到最小试探推演场数min(R

当若未达到最小试探推演场数min(R

优选的,所述基于各场对抗情况对己方行动方案列表中所有己方行动方案进行排序,包括:

基于己方行动方案列表中各方案的历史场均得分

优选的,所述从己方行动方案列表切换行动方案进行对抗,之前还包括:

初始化下述中的至少一个或多个参数:用户预设方案总数I,总推演场数R,用户期望的推演结果置信度E,本方各行动方案胜算度初值ps

对己方行动方案列表中的己方行动方案设置行动方案胜算度初值ps

根据系统的推演结果置信度ε和用户期望的推演结果置信度E,计算确定最小试探推演场次min(R

优选的,所述基于己方行动方案与对方行动方案利用智能对抗推演仿真系统进行对抗,并记录对抗情况,之后还包括:

判断所述对方行动方案是否为新的对方行动方案,如果是则存储于对方行动方案列表中。

优选的,所述判断所述对方行动方案是否为新的对方行动方案包括:

基于智能对抗推演仿真系统获取对抗方装备及各装备的初始部署位置,并将所述对抗方装备及各装备的部署位置作为行动方案;

将所述行动方案与预先存储的所有的对抗方行动方案进行比对,当所述行动方案与所述所有的对抗方行动方案都不相同时,所述行动方案被确认为对抗方的新行动方案;

所述存储的所有的对抗方行动方案包括:装备及各装备的初始部署位置。

与现有技术相比,本发明的有益效果为:

本发明提供一种智能对抗推演仿真环境下的多方案自主切换方法,包括:获取预先确定的己方行动方案列表;所述己方行动方案列表包括至少一个己方行动方案;利用对抗推演仿真系统,基于预设对抗推演场次数量,从己方行动方案列表切换行动方案进行对抗,并根据对抗结果对己方行动方案列表中各行动方案进行排序;基于所述己方行动方案排序结果确定最优行动方案;本发明能够在大型多回合制对抗推演过程中,根据历史推演结果记录多方案优劣排序,实现各场推演间多套方案的在线自主切换;

本发明深入考虑分析战场态势信息,在双方实力的基础上,提前制定多套备选方案,以便在对抗正式开始前,根据获知的态势情报和历史对抗数据,确定方案切换时机以选择最合适的方案,从而大大提高了获胜的概率。

附图说明

图1为本发明的基于多行动方案自动切换的最优行动方案确认方法流程图;

图2为实施例1的多行动方案自动切换的最优行动方案流程图;

图3为行动方案预判流程图;

图4为实施例3的三种情况推演测试结果对比图。

具体实施方式

为了更好地理解本发明,下面结合说明书附图和实例对本发明的内容做进一步的说明。

实施例1:

在联合作战智能博弈对抗过程中,往往采取多场次重复推演,并按照给定的积分规则,累加各场次积分,总分高者获胜。每场积分规则往往参考两个重要指标,一是任务完成情况,比如:红方是否完全完成任务,若成功,红方可获得30分,蓝方为0分,否则红方为0分,蓝方获得30分;二是在双方都未完成全部任务的情况下,根据战损情况计算小分,比如红方损失一架战斗机,蓝方可获得1分,蓝方损失一艘驱逐舰,红方可获得5分。

用户不论扮演红方还是蓝方,在与作战对方不断博弈过程中,都可以通过分析对方作战装备初始部署位置特征信息,运用行动方案判断算法,实现对对方不同行动方案的标记区分。在此基础上,还需要对已完成的推演结果做进一步分析,目的是选出下一场推演对抗中本方最合适的行动方案,从而使多场次推演的总得分最高。

由于存在随机性干扰因素,在双方都采用相同的行动方案,两场推演结果完全相同的可能性也非常小。虽然历史不能复现,但在各影响因素相同的条件下,大量的模拟仿真结果仍会表现出一些共性特点,反映出战争的某些规律特性。基于此,本发明提供一种智能对抗推演仿真环境下的多方案自主切换方法,可以考虑通过分析已有推演结果数据,发掘双方不同行动方案间对抗的胜负规律,为本方后续场次行动方案的推荐选择提供辅助参考。本发明提供的技术方案主要是在行动方案判断的基础上,通过分析已有每场推演的结果,以及本方和对方所采取的行动方案,根据本方不同行动方案的表现,按照推演结果的得分高低排定行动方案的方案优劣,进而选择推荐出下场推演本方应该采取的行动方案,以便使得总得分最高。

在执行本发明提供的技术方案前先对本方案涉及的理论进行介绍:

1.对本方行动方案动态排序的分析

基于贪心思想,每场推演都希望能获胜或是得分最大化。因此在推演开始前,往往会选择最优的行动方案。在有多个行动方案的情况下,这实际是一个按照表现优劣对行动方案进行排序的问题。

本问题中,描述行动方案优劣的指标是胜算度。行动方案胜算度不是一成不变的,而是会随着推演结果不断变化。胜算度初值是在设计行动方案时确定的,该初值代表了在没有进行推演对抗时,对该行动方案获胜几率的期望。然而,在经过推演对抗的实际检验后,预设胜算度高的行动方案可能经常失败,而预设胜算度低的行动方案也有可能经常获胜。这样的结果,可能与设计之初考虑有关,也可能与对方的行动方案选择有关。无论具体原因是什么,都说明了预设的行动方案胜算度已经不能准确反映检验结果,需要及时依据推演结果,对各行动方案的胜算度进行必要的调整。因此,在本问题中,预设的各行动方案的排序应该随推演结果不断调整变化。

2.对本方行动方案排序与对方行动方案间关系的分析

前面分析中已提到,推演结果既与本方行动方案设计是否完善有关系,还与对方的行动方案选择有关。前者不再赘述,重点分析后者。

古往今来,无数战例都已证明,某一个行动方案往往难以做到“包打天下”。原因一方面,是因为方案在设计过程中天然具有极高的复杂性,难以尽善尽美;另一方面,无数历史经验教训表明,一切从实际出发,需要根据不同的敌情选取、调整行动方案,以求取得最佳战果。

实际中,作战力量都是有限的,不太可能如理想般那样的充足,因此需要通过反复权衡思考,定性定量分析,组合运用各作战力量的方式方法,以实现相同兵力编成下作战效能的最大化。受各作战力量自身属性特点,及相互间“相生相克”关系的制约,在实际作战中,面对不同的敌情,往往需要考虑如何巧妙的设计安排本方有限的作战力量,来完成预定的目标任务。即需要考虑如何针对对方的作战方案,确定本方的行动方案,进而制定相应的作战方案。

推演对抗,乃至实际作战中,双方为了确保胜利,都会尽力对作战方案保密,加重了战争迷雾,导致每场推演对抗其实都是在“打盲牌”。然而,由于作战力量间“相生相克”的关系,当借助智能对抗推演仿真环境进行重复推演时,可以从大量的推演结果中发现隐藏在“迷雾”中的规律。在推演中,对于对方某一行动方案OP,可以通过统计一定场次的推演结果,不断更新本方不同行动方案对该行动方案OP的胜算度优先排序,从而发现本方哪个行动方案的胜算最大。

2.对推演对抗中本方行动方案选择的分析

由前面分析可知,通过行动方案判断可以建立对方行动方案列表。通过分析推演结果,对于对方的每个行动方案,都能获得一个本方行动方案的胜算度优先排序,确定最佳待选行动方案。这些都是基于历史数据得到的,还需要进一步根据这些历史经验,指导下场推演对抗中本方行动方案的选择。

对此,按照下场推演对方的行动方案是否改变,分两种情况进行分析。

(1)下场推演对方保持行动方案不变

由于维护有本方行动方案优先排序,在此情况下,可以直接选择本方行动方案中,相对该对方行动方案的本方最优行动方案,作为下场推演对抗本方拟采取的行动方案。

(2)下场推演对方改变行动方案

相比前一种情况,假如对方改变作战方案,会加大不确定性。对方可能采用之前没有使用过的,全新的行动方案。此时,已有的推演结果,从严格意义上说,已经不再具有指导意义。无论选择本方的哪个作战方案,都面临着相同的未知情况。在此情况下,采用与(1)中相同的处理方法,即选择当前排序下本方最优行动方案。

此外,对方也可能改用之前已经使用过的,有记录的作战方案,但具体是哪个,仍然是未知的。在此情况下,为了保证最大的综合胜算度,当前排序下本方最优作战方案仍是最佳选择,它可以确保,本方相对对方的整体最大优势。

综上所述,无论哪种情况,下场推演对抗时选择本方胜算度最高的作战方案都是最优选择,能够确保未知情况下本方的最大获胜优势。

3.对于最小化行动方案切换代价的分析

如前所述,战争属于复杂系统,不确定因素使得相同条件下各场作战推演的结果间存在一定偏差,即面对对方同样的行动方案,选取同样的本方行动方案,推演结果仍可能有输有赢,得分有高有低,表现出一种不稳定性。此时,虽然系统对每场推演有内定的置信度,但一方面仅凭一场推演的结果就断定某行动方案的优劣,显然还是不够客观,另一方面用户期望的推演结果置信度可能还高于系统的内定置信度,仅凭单场推演结果无法令用户满意或信服。基于上述分析,考虑由于每场推演对抗都是相互独立的,推演结果间具有独立性,可以通过采用重复实验、多次采样的统计方法,以多次试探性推演的方式对行动方案进行评估,从而提高评估的客观性和可信性。

然而,这样会带来一个新问题,那就是进行多少次试探性推演是合适的。如果试探次数较少,取样不足,则评估结果仍然难以令人信服;反之,如果试探次数较多,则当该行动方案较差时,需要承受这些推演结果的低分对总得分的影响。因此,需要确定一个合适的试探次数,既能尽量减小得分上可能带来的损失代价,又能较为充分的对行动方案进行验证,确保评估结果的客观和可信。

为解决上述问题,可先由用户设定其期望的推演结果置信度。若期望置信度低于系统置信度,则单场推演结果的可信程度已能满足用户需求。否则,则需要考虑进行多场推演,并将这些推演看作一个整体,通过累积提高置信度,以满足用户对置信度的需求。在累积推演结果置信度的过程中,存在一个场次数,当该场推演结束后,累积的置信度恰好刚满足用户的期望置信度,称此场次数为最小试探推演场次。此时,如果当前行动方案获胜概率小,则下场可以切换其他行动方案,从而最小化试探可能带来的得分损失代价。

因此本发明提供一种智能对抗推演仿真的多方案自主切换方法,基于最小代价的多行动方案智能切换,是随着推演场次的进行,持续调整本方行动方案的优先排序,为下一场推演的行动方案选择提供辅助参考。由于胜负判定基于积分累加机制,所以需要先根据系统内定置信度与用户的期望置信度,确定最小试探推演场数,以最小化行动方案选择的“试错”代价,本发明的技术方案,如图1所示,包括:

S1:获取预先确定的己方行动方案列表;所述己方行动方案列表包括至少一个己方行动方案;

S2:利用对抗推演仿真系统,基于预设对抗推演场次数量,从己方行动方案列表切换行动方案进行对抗,并根据对抗结果对己方行动方案列表中各行动方案进行排序;

S3:基于所述己方行动方案排序结果确定最优行动方案。

本发明S2中利用对抗推演仿真系统,基于预设对抗推演场次数量,从己方行动方案列表切换行动方案进行对抗,并根据对抗结果对己方行动方案列表中各行动方案进行排序,包括:

步骤1:从预先确定的己方行动方案列表中选择第一个己方行动方案;

步骤2:基于己方行动方案与对方行动方案利用智能对抗推演仿真系统进行对抗,并记录对抗情况;根据对抗情况从己方行动方案列表中确定下场对抗的己方行动方案,并判断是否达到对抗推演场次,如果达到则执行结束;否则执行步骤步骤3;

步骤3:当己方行动方案列表中所有行动方案执行完成后,基于历史对抗情况对己方行动方案列表中所有己方行动方案进行排序;

步骤4:从排序后的己方行动方案列表中选择第一个己方行动方案执行步骤2,直到达到预设对抗推演场次,执行结束。算法使用的变量如表1所示。

表1算法所用变量

其中,每场推演结果的置信度ε为系统内定,表示该场推演结果的可信程度,由系统自身的设计与实现所决定,不由用户设定,也不随推演条件的变化而改变;期望推演结果置信度E,由用户根据自己的偏好设定,表示用户满意的、期望达到的推演结果置信度。由上述两个参数可以确定最小试探推演场数min(R

相关计算公式如下

公式变形后,得到

类似的,还设定了单场推演期望得分s

下面对本发明提供的技术方案的做进一步的介绍,如图2所示:

1):算法初始化。

1.1)初始化各参数,包括用户预设方案总数I,总推演场数R,用户期望的推演结果置信度E,本方各行动方案胜算度初值ps

1.2):按照行动方案胜算度初值ps

2):根据系统的推演结果置信度ε和用户期望的推演结果置信度E,计算最小试探推演场次min(R

3):选择优先排序列表中,列表指针所指向的行动方案i,进行min(R

4):判断当前列表中的所有行动方案是否都已推演过。

(1)如果是,即已将当前列表中所有行动方案轮换一遍,则根据各行动方案的场均得分重新排序,得到一个新的优先排序列表,重置列表指针为1,选择指针对应的行动方案进行下场推演,转步骤5)。

(2)如果不是,列表指针指向当前优先排序列表中的下一个行动方案,并选择该行动方案进行下一场推演,转步骤3)。

5):对推演场数r

如果r

实施例2

在上述实施例中判断对方行动方案是否为新的对方行动方案,可以采用面向推演仿真的行动方案预判方法,该方法包括:

1)基于智能对抗推演仿真系统获取对抗方装备及其初始部署位置,并将所述对抗方各装备及其部署位置作为备选行动方案;

2)将所述备选行动方案与预先存储的所有的对抗方行动方案进行比对,当所述备选行动方案与预先存储的的对抗方行动方案都不相同时,所述备选行动方案被确认为对抗方的一个新行动方案;

对抗方行动方案包括:装备及各装备的初始部署位置;所述存储的所有的对抗方行动方案包括:历史推演发现并存储的对抗方行动方案。

其中,1)基于智能对抗推演仿真系统获取对抗方装备及各装备的初始部署位置包括:

在所述智能对抗推演仿真系统开始执行对抗时获取对抗方所有装备,以及各装备的坐标位置;

所述备选行动方案以各装备编号以及各装备的坐标位置顺序组成的数组向量进行表示;

所述坐标位置包括二元数组或三元数组。

对抗方行动方案中装备的初始部署位置为坐标位置;这里坐标位置包括:二元数组或三元数组。

进一步的,将所述备选行动方案与预先存储的所有的对抗方行动方案进行比对,当所述备选行动方案与预先存储的对抗方行动方案都不相同时,所述备选行动方案被确认为对抗方的一个新行动方案,包括:

步骤1:从对抗方行动方案列表中选取第一个行动方案;

步骤2:以当前选取行动方案中各装备编号以及各装备的坐标位置顺序组成的数组向量对所述当前选取行动方案进行表示;

步骤3:计算所述备选行动方案与当前选取行动方案的欧氏距离;

步骤4:基于欧氏距离判定所述行动方案与当前选取行动方案的相似度;

步骤5:当相似度在设定阈值范围内,所述备选行动方案与当前选取行动方案为同一方案或相近方案,结束比对;否则,执行步骤6;

步骤6:判断行动方案列表中是否还有未被选取的行动方案,若有,则继续从行动方案列表中获取下一个行动方案,并执行步骤2;若没有,则所述行动方案被确认为对抗方的一个新行动方案,结束比对;

其中,所述对抗方行动方案以行动方案列表的形式存储。

进一步的,计算所述备选行动方案与当前行动方案的欧氏距离,包括:

分别计算所述行动方案对应的数组向量和当前行动方案对应的向量数据中各装备间的欧氏距离;

以各装备重要性进行加权,计算所述行动方案对应的数组向量和当前行动方案对应的数组向量间的欧氏距离。

进一步的,当坐标位置为二元数组时,所述各装备在不同方案间的欧氏距离的计算式如下:

式中,

当坐标位置为三元数组时,所述各装备在不同方案间的欧氏距离的计算式如下:

式中,

进一步的,数组向量间的欧氏距离计算式如下:

式中,

进一步的,相似度的计算式如下:

式中,f为相似度;

进一步的,当所述备选行动方案被确认为对抗方的新行动方案之后还包括:将所述新行动方案存储于对抗方行动方案列表中。

利用本实施例提供的一种面向推演仿真的行动方案预判方法,通过深入考虑分析行动双方态势信息,在双方实力的基础上,提前制定多套作战方案,以便在行动正式开始前,根据获知的态势情报和历史对抗数据,确定方案切换时机以选择最合适的行动方案,从而大大提高了获胜的概率。

对算法使用的变量及其含义如表2所示。

表2行动方案预判算法所用变量

补充说明:

1.本算法采用装备初始部署位置代表行动方案,因此行动方案可表示为

2.方案相似度阈值是由用户设定的两个方案的最大偏差,作为判定方案是否相近或相似的标准。

算法的假设条件有:

1.联合行动智能对抗共进行Round场推演;

2.每方均有N

3.每方所属各装备具有重要性权重,

4.双方每场推演采用的行动方案均不公开;

5.方案相似度阈值由用户根据偏好自行设定。

算法的目标函数为:

式中,f为相似度;

由于算法的目的是判断两个行动方案是否相似或相近,甚至相同,因此,在用数组向量表示行动方案的基础上,以两个数组向量(简称为

下面对本发明提供的技术方案的做进一步的介绍,如图3所示:

1:算法初始化。假定本方为红方。初始化推演场次r=1,记录的对抗方为蓝方行动方案列表

2:进入第r′场推演。先根据已记录蓝方行动方案列表

3:判断对方是否采用了新行动方案。

3.1遍历列表

3.2选取列表

式中,

3.3根据目标函数计算公式计算目标函数值f,并与用户设定的相似度阈值θ进行比较。若f<θ,即相似度小于阈值,认为两个数组向量不同,转步骤3.4;否则,相似度大于等于阈值,认为两个数组向量基本相同,转步骤3.5。

3.4比较j与列表长度

3.5由于判定两个数组向量基本相同,因此认为蓝方当前采取的行动方案

3.6若已遍历完列表,表明当前蓝方行动方案对应的数组向量与列表中任一数组向量都不相同或相近,因此可判定蓝方该行动方案属于没有记录在列表中的新行动方案,将该数组向量添加到列表中。

4:检查推演是否结束。若r

实施例3

本实施例以一个具体的测试案例验证本发明提供的一种面向智能对抗的多方案自主切换方法的可行性与有效性。

1、案例介绍:

现有一套智能推演仿真系统,推演场景为海空联合对岛作战。用户为红方,系统智能为蓝方,推演双方都可提前设定多套作战方案。设定总推演场数为30,以30场推演累加的总分作为评判双方本轮对抗推演的成绩,通过比较双方成绩高低评判输赢。

假定:系统内置推演可信度为0.5,用户期望的推演结果置信度为0.9;系统预设有2个方案,用户预设有3套作战行动方案T

根据前述方法和上述假定,通过系统内置推演可信度ε、用户自设期望可信度E,以及总推演场数R,计算确定最小试探推演场数min(R

由公式(3)计算得到

R

为保证每次实验推演场数相同,要求总场数R能被R

min(R

所以,推演总场数为30,最小试探推演场数为5,即每5场更新一次推演统计数据,称这样连续的5场为一小轮试验推演。同时,根据用户预设各方案的初始胜算度,初始化用户预设方案优先队列Q=<T

2、案例推演:

推演过程如下:

1).第一小轮试验推演

推演场次1-5,用户使用T

2).第二小轮试验推演

推演场次6-10,用户改用T

3).第三小轮试验推演

推演场次11-15,用户使用T

4).第四小轮试验推演

推演场次16-20,用户继续使用T

5).第五小轮试验推演

推演场次21-25,用户仍使用T

6).第六小轮试验推演

推演场次26-30,用户使用T

3、对比总结

围绕多行动方案自主在线切换这一主要创新点,设计了两种对比情况,如表2所示,并继续使用上述案例进行测试。

表2方案切换方法对比情况

其中,对比情况一的设定是,只采用当前用户默认最优方案T

两种对比情况的推演结果如表3所示。

表3两种对比情况推演结果

进一步,统计本发明所提方案切换方法与两种对比情况推演结果的对比如图4所示。从图中可以看出,对比情况1的方案使用方法效果最差,红方完败于蓝方,对比情况2的效果好于对比情况1,但红方仍以一定劣势输于蓝方,本发明的效果最好,红方以一定优势胜于蓝方。

分析总结

1).关于行动方案的预判

在推演过程中,第三小轮至第六小轮的试验推演中,都能够根据每场推演蓝方的初始装备部署位置信息,甄别判断蓝方是否采用了不同的作战方案,为推演结束后,复盘分析作战方案利弊优劣,提供了有力的依据。

2).关于过程中行动方案的切换

本发明的软件能够按照方法设定的规则,实现多行动方案间的自主在线切换,推演过程中无需进行人工暂停干预。

第一小轮试验推演结束后,红方场均得分20,低于用户期望得分,而蓝方场均得分达到40,因此方案管理选择改用方案T

3).关于三种不同方案使用方法间的比较

通过上述对比测试可以看出,对于多场次智能对抗推演,方案的设计与使用,包括方案是否切换,以及如何切换,都会对最终推演结果、得分产生巨大影响。因此,非常有必要对是否进行方案切换,以及如何设计合理的方案切换方法进行研究,并提出符合实际需要的方案切换方法,以确保能够获得理想的推演结果与得分。

通过上述复盘分析可以看出,方案管理能够根据设定的实验推演场数,根据场均结果自主在线切换方案,并根据历史结果重新定义方案优先级,达到了方法和软件的预期设计目的。

显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。

本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。

本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。

这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。

这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。

以上仅为本发明的实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均包含在申请待批的本发明的权利要求范围之内。

去获取专利,查看全文>

相似文献

  • 专利
  • 中文文献
  • 外文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号