基于BiGRU网络的空间非合作目标受控运动意图识别
doi: 10.11887/j.issn.1001-2486.24110006
黄贺祥1,2 , 杨震1,2 , 李嘉胜1,2 , 罗亚中1,2
1. 国防科技大学 空天科学学院, 湖南 长沙 410073
2. 太空系统运行与控制全国重点实验室,湖南 长沙 410073
基金项目: 中国科协青年人才托举工程资助项目(2021-JCJQ-QT-047)
Intention recognition for forced motion of space non-cooperative targets based on BiGRU network
HUANG Hexiang1,2 , YANG Zhen1,2 , LI Jiasheng1,2 , LUO Yazhong1,2
1. College of Aerospace Science and Engineering, National University of Defense Technology, Changsha 410073 , China
2. State Key Laboratory of Space System Operation and Control, Changsha 410073 , China
摘要
针对非合作目标受控运动意图难以识别的问题,提出了一种基于双向门控循环单元(bi-directional gated recurrent unit,BiGRU)网络的意图识别方法。设定非合作目标具有“受控圆形绕飞”“受控水滴绕飞”“定点振荡”“直线逼近”“跳跃逼近”5种受控运动意图,建立非合作目标受控运动意图机动信息数据集。基于非合作目标进入我方航天器观测范围后的机动时序信息,采用BiGRU网络进行训练,以学习时序数据与受控运动意图之间的潜在关联,实现对非合作目标的意图识别。仿真结果表明,基于BiGRU网络的非合作目标受控运动意图识别方法的检测准确率达到98.35%。该方法可以提高对非合作目标的意图识别能力,为我方在轨航天器的安全保障提供技术参考。
Abstract
In order to solve the problem that it is difficult to identify the forced motion intention of non-cooperative targets, an intention recognition method based on BiGRU(bi-directional gated recurrent unit) network was proposed. The non-cooperative target was categorizes into five forced motion intentions: "forced round fly-around""forced drip-drop fly-around""fixed-point oscillating""line approach" and "hop approach", and the forced motion intention maneuver information dataset of the non-cooperative target was established. Based on the maneuver time series information of the non-cooperative target after entering the observation range of our spacecraft, the BiGRU network was utilized to train on the potential correlation between the time series data and the forced motion intention, so as to realize the intention recognition of the non-cooperative target. The simulation results demonstrate that the detection accuracy of the BiGRU network-based forced motion intention recognition method for non-cooperative targets achieve 98.35%. This method can improve the ability to identify the intentions of non-cooperative targets and provide a technical reference for the safety of our spacecraft in orbit.
随着航天技术的发展与太空探索受重视程度的提升,航天活动频繁,航天器数量增多,太空环境日益复杂,太空安全事件频发。2009年2月10日,俄罗斯“宇宙2251号”卫星与美国“铱星33号”卫星在约790 km高度轨道上碰撞。这是历史上首次两个完整航天器之间的灾难性碰撞事件,事件产生大量空间碎片,长期影响轨道区域空间环境[1]。此外,太空已成为国与国之间竞争和战略对抗的新领域,各国积极开展空间对抗技术研究,例如在轨拦截、抵近围捕、侦查巡视等,空间攻防对抗态势加剧。2021年7月、10月,SpaceX公司“星链”卫星两次异常接近中国空间站,中国空间站及时采取规避措施应对潜在威胁[2]。这些事件凸显空间安全事件对在轨航天器安全的严重威胁,凸显空间非合作目标意图识别研究的现实和理论价值。
意图识别在自动驾驶、空中飞行目标意图识别等领域已得到广泛研究。研究方法主要基于证据理论[3-5]、模块匹配[6]、专家系统[7]、贝叶斯网络[8]和神经网络[9]等。目前空间非合作目标意图识别研究处于早期阶段,相关知识体系尚不完善,难以获取大量先验知识。Zhang等[9]定义空间目标典型运动意图,提取非合作目标的视距测量时序数据作为目标的意图特征,基于双向门控循环单元[10](bi-directional gated recurrent unit,BiGRU)和自注意力的深度神经网络对非合作目标的意图进行识别。Sun等[11]根据C-W(Clohessy-Wiltshire)方程对目标自然相对运动构型进行表征和分类,根据不同类型的运动来定义和分组意图,并提出了一种基于深度神经网络的空间非合作目标意图识别方法,以非合作目标的瞬时相对位置和速度作为输入,实现目标意图识别。
现有研究存在以下不足:①意图识别场景通常假设非合作目标在意图识别过程中未进行任何轨道机动,仅针对非合作目标的自然相对运动意图进行识别。然而,在工程实际中,空间目标执行机动的意图识别问题更为关键,机动操作是空间目标形成意图的核心。②现有研究定义和分类的意图多为自然运动意图,这些运动意图中的目标不包含机动操作,其绝对运动轨迹和相对运动构型可通过轨道预报直接获得,从而推导出相对运动意图。
为解决上述问题,提出一种基于BiGRU神经网络的空间非合作目标受控运动意图识别方法。主要贡献包括:①建立非合作目标受控运动意图识别场景,表征和分类五种非合作目标受控意图;②选取非合作目标相对机动时刻、机动量等机动信息作为意图识别模型输入特征,并对特征进行数据处理;③采用BiGRU神经网络作为受控运动意图识别模型。
1 问题建模
1.1 场景描述
建立非合作目标意图识别基本场景,假设航天器S和目标G为我方航天器和非合作目标,如图1所示,航天器S上配备了星载可探测设备,能够在目标G进入可观测区域时对其进行探测。可观测区域是指航天器S的传感器和相机能够探测到的范围。航天器S的可观测区域是以S为中心,探测半径为Lobserve的球形空间区域。
1意图识别场景
Fig.1Scenario for intention recognition
当目标G进入可观测区域后,我方航天器S持续对目标G进行跟踪观测,目标G为实现指定意图,进行机动操作。我方航天器检测到目标G存在机动后,结合该目标前n次机动信息,利用基于BiGRU网络的意图识别模型对非合作目标进行意图识别。同时做出以下假设:
1)非合作目标G为实现意图而进行的机动操作的位置均在我方航天器S可观测区域内,即我方航天器可以探测到非合作目标实现意图的每次机动;
2)非合作目标G在实现意图时,使用脉冲机动;
3)我方航天器S可以对任意进入可观测区域的非合作目标进行实时观测,并根据观测数据可以准确识别出非合作目标的每次机动,同时获得每次机动信息(包括机动时刻、机动大小)。
1.2 非合作目标相对运动模型
为描述非合作目标在空间中与我方航天器的相对运动,下面给出需要使用的坐标系的定义:
定义J2000地心惯性坐标系SiO-XiYiZi):坐标系原点O在地球中心;OXi轴沿地球赤道面和黄道面的交线,指向春分点γOZi轴和地球自转轴重合并指向北极;OYi轴由右手定则得到。
定义局部垂直局部水平(local vertical,local horizontal,LVLH)坐标系SSOS-XSYSZS):坐标系原点OS位于我方航天器S质心,OSXS轴沿航天器径向方向,OSZS轴沿我方航天器轨道面正法向方向,OSYS轴由右手定则确定。
我方航天器LVLH坐标系SSOS-XSYSZS)是一个动坐标系。定义非合作目标G在我方航天器LVLH坐标系中的位置速度矢量为ρ=[xyzx˙y˙z˙]。非合作目标的相对运动方程为:
{ x ¨ = ω 2 x + 2 ω y ˙ μ ( R t + x ) [ ( R t + x ) 2 + y 2 + z 2 ] 3 / 2 + μ / R t 2 + a x + u x y ¨ = ω 2 y 2 ω x ˙ μ y [ ( R t + x ) 2 + y 2 + z 2 ] 3 / 2 + a y + u y z ¨ = μ z [ ( R t + x ) 2 + y 2 + z 2 ] 3 / 2 + a z + u z
(1)
其中,ωRt分别是我方航天器的轨道角速度和地心距,uxuyuz为非合作目标在坐标系SS的推力加速度分量,axayaz为目标的摄动加速度分量。
2 非合作目标意图数据集构建
现有研究中对空间目标意图的定义和分类主要集中于自然相对运动意图。例如,Zhang等[9]定义并划分了11种典型的相对运动意图,包括自然绕飞、自然掠飞等;Sun等[11]根据C-W方程对自然相对运动构型系统地划分为10种意图。然而,在实际工程应用中,机动操作是空间目标形成行为意图的关键因素。空间目标的机动行为前后之间可能存在显著关联性,连续的机动操作最终可形成特定的卫星行为意图。
针对空间非合作目标通过连续多次机动形成的受控相对运动意图进行建模和分类。基于航天任务工具箱[12](aerospace tool kit,ATK)中的轨道机动规划工具,完成了对非合作目标多种意图的规划和实现,并生成了包含非合作目标运动轨迹和机动信息的数据集。
为建立非合作目标意图数据集,基于上述相对运动动力学模型,模拟了非合作目标对我方航天器采取的“受控圆形绕飞”“受控水滴绕飞”“定点振荡”“直线逼近”“跳跃逼近”这5种典型意图场景。这5种意图代表了空间目标受控运动的基本行为模式,其他复杂的受控运动模式可由这5种基本模式演化或组合而成。以下对这5种意图进行详细说明。
2.1 “受控圆形绕飞”意图机动信息生成
非合作目标为了快速观测我方航天器的外部形状、载荷等特征,通常需要通过机动操作形成对我方的近距离圆形绕飞。从理论上讲,圆形绕飞需要连续的变推力机动来实现,但在工程实践中,通常采用脉冲推力进行近似实现[13]。以图2所示的多脉冲机动实现圆形绕飞为例,非合作目标进行8次脉冲机动完成对我方的绕飞。在受控圆形绕飞意图中,圆形轨迹上的导航点数量可根据需求任意设定,导航点即目标施加脉冲机动的关键位置,通常采用等角时间法施加脉冲控制[14]
2“受控圆形绕飞”构型
Fig.2Configuration of "forced round fly-around"
在使用ATK进行规划时,目标进行多脉冲机动操作会受到如下5个参数的影响:
1)绕飞半径Cr,即标称轨迹圆的半径;
2)绕飞导航点数目Np,即在一圈标称轨迹上设定的导航点的数量;
3)绕飞圈数Nc
4)绕飞中心相对目标位置[dxdydz]T
5)绕飞平面旋转角[θxθyθz]T
我方航天器S初始轨道根数如表1所示。在构建其他意图数据集时,我方航天器初始状态保持不变。场景设置初始历元时刻为2020-01-01T00:00:00.000(UTC)。非合作目标受控绕飞意图数据集生成示例参数设置如表2所示。
基于表2中的参数,利用ATK生成“受控圆形绕飞”的相对运动轨迹,并得到非合作目标G进入我方航天器S的观测范围后的全部机动信息。表3给出了前3次机动的详细信息。
1我方航天器S初始轨道根数
Tab.1 Initial orbital elements of our spacecraft S
2“受控圆形绕飞”参数设置
Tab.2 Parameter setting of "forced round fly-around"
3“受控圆形绕飞”机动信息
Tab.3 Maneuver data of "forced round fly-around"
2.2 “受控水滴绕飞”意图机动信息生成
为了实现对我方航天器特定区域的持续观测,非合作目标需采用具有较短飞行周期的“受控水滴绕飞”意图模式。在LVLH坐标系中,若非合作目标y方向的运动的长期项不为零,则整个水滴绕飞构型将出现漂移现象,无法形成稳定的周期性绕飞轨迹。若不施加任何控制措施,则目标的绕飞轨迹将无法闭合。在其轨迹与x轴交点处施加脉冲机动,可形成封闭的绕飞构型,如图3所示。
3“受控水滴绕飞”构型
Fig.3Configuration of "forced drip-drop fly-around"
目标进行“受控水滴绕飞”意图的脉冲机动操作受到如下3个参数的影响:
1)水滴近点距离Dmin,即形成的水滴绕飞构型最近点与我方航天器的距离;
2)水滴远点距离Dmax,即形成的水滴绕飞构型最远点与我方航天器的距离;
3)绕飞圈数Np
非合作目标“受控水滴绕飞”意图数据集生成示例参数设置如表4所示。
4“受控水滴绕飞”参数设置
Tab.4 Parameter setting of "forced drip-drop fly-around"
使用ATK得到非合作目标G进入我方航天器S的观测范围后的机动信息。
2.3 “定点振荡”意图机动信息生成
为了实现对我方航天器特定区域的持续观测,非合作目标可通过脉冲机动实现“定点振荡”运动模式。在该意图模式下,非合作目标的构型如图4所示,非合作目标转移到我方航天器LVLH坐标系下y轴上的某一固定位置,随后通过一次脉冲机动,形成该构型。
4“定点振荡”意图构型
Fig.4Configuration of "fixed-point oscillating"
目标进行“定点振荡”脉冲机动操作受到参数定点振荡时长tperch的影响。随后使用ATK得到非合作目标G进入我方航天器S的观测范围后的机动信息。
2.4 “直线逼近”意图机动信息生成
为了对我方航天器执行相关任务,非合作目标需接近我方航天器。为此,非合作目标采用“直线逼近”策略,并通过多次跳跃的方式实现近似直线的逼近。本质上,这种逼近方式属于多脉冲拱线逼近。其具体构型如图5所示。
目标进行“直线逼近”时脉冲机动操作受到逼近终点相对目标位置[dxdydz]T和跳跃时长thop的影响。
5“直线逼近”构型
Fig.5Configuration of "line approach"
非合作目标“直线逼近”意图数据集生成示例中[dxdydz]T=[2 000 m,0,0]Tthop=21 600 s。场景设置初始历元时刻为2020-01-01T00:00:00.000(UTC)。
2.5 “跳跃逼近”意图机动信息生成
非合作目标为实现特定任务而逼近我方航天器时可能采取“跳跃逼近”意图。非合作目标在“跳跃逼近”意图下的构型如图6所示。
6“跳跃逼近”构型
Fig.6Configuration of "hop approach"
目标进行“跳跃逼近”时脉冲机动操作受到逼近终点相对目标位置[dxdydz]T和跳跃时长thop的影响。
非合作目标“跳跃逼近”意图数据集生成示例中的[dxdydz]T=[2 000 m,0,0]Tthop=21 600 s。场景设置初始历元时刻为2020-01-01T00:00:00.000(UTC)。
针对上述构建的5种非合作目标意图类型,分别设置对应的标签,将模型推理得到的标签映射至相应的意图类型。其编码机制如图7所示。
7意图编码
Fig.7Intention encoding
3 基于BiGRU网络的受控运动意图识别算法
整个意图识别算法模型可以分为三层:输入层、BiGRU层和输出层,如图8所示。每层的具体结构和机制如下所述。
8受控运动意图识别的BiGRU神经网络模型
Fig.8BiGRU network model of intention inference for forced motion
3.1 输入特征选取
在意图识别模型的输入特征选择方面,本文与现有的非合作目标意图识别研究存在显著差异。现有的研究大多聚焦于自然相对运动意图,其模型输入特征通常为目标的相对运动状态。例如Zhang等提取非合作目标相对我方卫星的视距测量时序数据作为模型的输入特征[9];Sun等则选取非合作目标的相对位置速度、相对距离和相对距离变化率作为意图识别模型的特征输入[11]
然而,本文针对非合作目标的受控运动意图进行识别。在受控运动过程中,非合作目标会进行多次机动操作,每次机动后其轨道状态均会发生显著变化。因此,仅依靠相对运动状态作为机器学习模型的输入特征是不合适的。鉴于此,决定采用非合作目标机动信息作为意图识别的输入特征,通过模型学习机动量、相对机动时刻、前后机动之间的关联到目标行为意图的映射关系。
假设在非合作目标进入探测范围后,己方航天器能够在一段时间内准确检测到非合作目标的机动时间、机动量等关键信息。基于此,选取以下特征用于意图识别:
1)相对机动时间ti,在给定观测时间内,记非合作目标第一次机动为0时刻,即t1=0 s;
2)x方向机动量ΔVx(m/s);
3)y方向机动量ΔVy(m/s);
4)z方向机动量ΔVz(m/s);
5)机动量ΔV(m/s)。
定义每次机动时,目标受控运动意图的特征向量为Vi=[ti,ΔVxi,ΔVyi,ΔVzi,ΔVi],其中i表示目标进入观测区域的第i次机动。根据目标进入我方航天器探测区域后的前n次机动的特征向量,可以构造目标的机动时序特征向量VT=[V1V2,···,Vn]。考虑到实际观测中期望空间目标意图的检测时间尽可能短,在本文中设定使用非合作目标进入探测区域后的前3次机动信息,构造目标的机动时序特征向量VT=[V1V2V3]作为神经网络的输入特征。
3.2 数据预处理
为了消除不同尺度信息对模型训练的影响,加速模型收敛并提升训练效果,对上述数据进行归一化处理,将其转换为无量纲量,并统一到相同的区间范围内。具体而言,对于每一个n维意图特征M=[m1m2,···,mn],采用最小最大归一化(min-max normalization,MMN)方法进行处理,方法为:
m k = m k m min m max m min
(2)
式中,mminn维意图特征M的最小值,mmaxn维意图特征M的最大值,mk是未经过归一化的原始数据,mk是经过归一化的数据。
3.3 BiGRU层
机动时序数据作为意图识别问题的输入特征具有时间依赖性和双向相关性,简单的机器学习方法及传统的单向循环神经网络难以准确捕捉和学习数据中的时序特征,导致意图检测的精度和鲁棒性不足。
BiGRU网络具有独特的双向门控机制,能够从正向和反向两个方向捕捉时序数据中的信息。这种双向结合使得BiGRU能够更全面地理解数据中的时序依赖关系,更适合解决现有研究问题。
BiGRU网络层的主要结构是由正向和反向的门控循环单元[15](gated recurrent unit,GRU)组成。GRU通过减少门单元的数量简化了长短期记忆[16](long short-term memory,LSTM)网络的内部结构,在保证收敛性能的同时减少了训练参数,从而提高了训练效率。然而,GRU网络是单向结构,仅能获取当前时刻之前的历史信息,忽略了未来时刻信息的影响。相比之下,BiGRU网络是由两个GRU组成的序列处理模型,一个负责正向输入,另一个负责反向输入,是一个仅包含输入门和遗忘门的双向递归神经网络,其结构如图9所示。通过引入双向传播机制,BiGRU在每个时间步长的输出节点包含当前时刻的历史和未来信息,能够更有效地捕捉时间序列信息中前向和后向特征的关联,实现“上下文信息”的处理,从而显著提升网络性能。
9BiGRU结构
Fig.9Structure of BiGRU
图9中可以看出,BiGRU网络在t时刻的状态ht可以由两部分(前向隐藏层的状态ht和后向隐藏层的状态ht)得到。ht是由当前时刻的输入xt和前一时刻隐藏层的状态ht-1决定的。ht是由当前时刻的输入xt和下一个时刻隐藏层的状态ht+1决定的。BiGRU网络的计算过程为:
{ h t = f ( w 1 x t + w 2 h t 1 ) h t = f ( w 3 x t + w 5 h t + 1 ) x t = g ( w 4 h t + w 6 h t )
(3)
其中,wii=1,2,···,6)表示从一个细胞层到另一个细胞层的权重矩阵,fg分别表示不同的激活函数。
3.4 输出层
输出层为Softmax函数,使用BiGRU层的输出来计算意图的概率分布。
pi=Softmax(O)=expoij=04 expoj
(4)
式中,O为全连接层的输出向量,i表示第i种意图,pi是第i种意图对应的模型识别概率。最后利用Argmax函数识别概率最大的意图类别,即该次模型检测结果。
4 仿真验证及结果分析
4.1 仿真参数及场景设置
下面对本方法进行验证,基于上文中应用的我方航天器的初始轨道根数,轨道初始历元为2020-01-01T00:00:00(UTC)。我方航天器的探测半径Lobserve=50 km。使用非合作目标前3次机动信息进行意图识别。非合作目标在进入我方观测区域后有以下5种可能的意图:“受控圆形绕飞”“受控水滴绕飞”“定点振荡”“直线逼近”“跳跃逼近”。以上5种意图对应的机动信息已在第2节中进行了介绍。
利用ATK仿真并建立了以上5种意图的相对轨迹和机动信息数据集,共有50 000条轨道数据。
4.2 模型设置及参数优化
隐藏层神经元的数量以及隐藏层的层数均会对模型性能产生显著影响,因此需要通过训练数据集对相关超参数进行优化调整。在实验中,首先保持隐藏层神经元的总量不变,将其设置为256。随后,分别将隐藏层的层数设置为1、2、3,对应的各隐藏层神经元数量分布分别为[256]、[128,128]、[128,64,64]。模型准确率随隐藏层层数的变化情况如图10所示。从图中可以看到,随着隐藏层层数的增加,模型的准确率趋于稳定。然而,隐藏层层数的增加会导致计算量和计算时间显著增加。为保证模型性能同时兼顾计算效率,本文采用3层BiGRU隐藏层的结构。
随后,保持隐藏层层数为3,对每层隐藏层中神经元的数量进行不同配置,以分析神经元数量对网络性能的影响。如图10所示,随着神经元数量的增加,模型的检测准确率逐渐上升,并在隐藏层神经元数量为256时达到最高值;而后准确率随神经元数量增加出现明显下降,表明模型出现了过拟合现象。综合考虑准确率和计算量,选择将每层隐藏层的神经元数量设置为256。
综上所述,当选择隐藏层层数为3、隐藏层神经元数量为256时,模型在训练数据集上的检测准确率最高,达到98.571%。
10不同隐藏层层数及神经元模型检测准确率
Fig.10Detection accuracy of models with different numbers of hidden layers and neurons
4.3 结果分析
上文中确定了影响模型性能的关键参数,对参数进行了优化调整。本节使用10 000组样本数据构成的测试集评估意图识别模型的性能。随着训练周期的增加,意图识别模型检测准确率不断增大,损失值逐渐减小,最终趋于收敛。意图识别模型的最终准确率为98.35%。图11为意图识别模型的混淆矩阵,该图说明了模型对不同意图类别的检测结果。
11意图识别模型混淆矩阵
Fig.11Confusion matrix of intention recognition model
4.3.1 无噪声情况下不同模型结果对比
为了进一步验证BiGRU意图识别模型的优势,在相同训练集、测试集下,将其与双向长短期记忆(bi-directional long short-term memory,BiLSTM)网络模型、GRU网络模型、LSTM网络模型、反向传播(back propagation,BP)网络模型[17]以及传统Fisher判别法[18]进行对比分析。首先对不同神经网络识别模型进行对比分析,选取5种神经网络模型在150个训练周期(epoch)内测试集上的最高准确率作为模型评价的主要指标,同时记录对应的损失值。对比结果如图12图13所示。
12不同模型检测准确率对比
Fig.12Variations in accuracy on test set of different models
13不同模型检测损失值对比
Fig.13Variations in loss on test set of different models
图12图13可以看出,BiGRU模型在收敛速度和检测准确率上均优于其他4种模型。BP模型难以有效处理时序数据中的复杂动态规律。BiGRU模型的收敛速度快于GRU模型和LSTM模型,这表明其双向传播机制可以提高时间序列推理模型的学习效率。
然后将5种神经网络模型和传统Fisher判别法进行比较评估,使用机器学习领域的模型评估指标来全面评估模型性能,即准确率(accuracy)、精确率(precision)、召回率(recall)和F1分数(F1-score),计算方程为:
Raccuracy =TP+TNTP+TN+FP+FN
(5)
Rprecision =TPTP+FP
(6)
Rrecall =TPTP+FN
(7)
RF1-score =2Rprecision Rrecall Rprecision +Rrecall
(8)
其中,TPTNFPFN分别是模型检测混淆矩阵中的不同项。
不同模型的评估结果如表5所示。BiGRU模型在所有评估指标中均有明显优势,这进一步证明了该模型的优越性。由于传统的判别分析方法无法分析时序数据,而现有输入特征为时序机动信息,因此识别准确率会明显低于利用神经网络的智能方法。这也证明本文选取的机动时序信息作为意图识别模型的特征输入具有较好的识别效果,即使在传统机器学习BP模型下识别准确率也能达到83.45%。
5不同模型检测结果对比
Tab.5 Comparison of detection results of different models
4.3.2 有噪声情况下不同模型结果对比
抗噪能力是评估模型性能的重要指标之一。前文在建立模型时,尚未考虑噪声的影响。然而,由于传感器精度和机动检测方法的限制,我方航天器获得的非合作目标机动数据不可避免地存在误差。为进一步对比不同模型在噪声干扰下的准确率变化情况。基于2.1节中建立的数据集,将机动数据误差视为高斯白噪声,并设置输入特征的数据误差的标准差分别为σt=300 s,σvx=σvy=σvz=0.1 m/s。图14展示了无噪声和有噪声情况下各种意图识别模型在测试数据集上的识别准确率对比。在噪声影响情况下,BiGRU模型的意图识别准确率大于90%,高于其他5种识别模型。这证明该模型在噪声情况下依然具有较高的识别准确率,抗噪声能力较强。
5 结论
针对空间非合作目标的意图识别问题,展开了受控运动意图的相关研究,建立了非合作目标受控运动机动信息数据库,构建BiGRU网络建立的意图识别模型,并验证了该模型的可行性和准确性。主要结论如下:
14在无噪声情况和有噪声情况下不同模型准确率对比
Fig.14Accuracy comparisons of different models without and with noise
1)不同的受控运动意图会导致非合作目标展现出不同的机动特征。基于此,构建了非合作目标机动信息数据库。通过意图识别模型学习目标机动信息,可准确识别不同受控运动意图。
2)基于BiGRU网络建立意图识别模型,实现了对非合作目标受控运动意图的识别。通过优化网络结构中的超参数,模型的识别准确率达到了98.35%。此外,对不同网络的识别准确率进行对比分析, BiGRU网络在性能上优于其他方法,展现出更高的识别准确率和较强的抗噪能力。
1意图识别场景
Fig.1Scenario for intention recognition
2“受控圆形绕飞”构型
Fig.2Configuration of "forced round fly-around"
3“受控水滴绕飞”构型
Fig.3Configuration of "forced drip-drop fly-around"
4“定点振荡”意图构型
Fig.4Configuration of "fixed-point oscillating"
5“直线逼近”构型
Fig.5Configuration of "line approach"
6“跳跃逼近”构型
Fig.6Configuration of "hop approach"
7意图编码
Fig.7Intention encoding
8受控运动意图识别的BiGRU神经网络模型
Fig.8BiGRU network model of intention inference for forced motion
9BiGRU结构
Fig.9Structure of BiGRU
10不同隐藏层层数及神经元模型检测准确率
Fig.10Detection accuracy of models with different numbers of hidden layers and neurons
11意图识别模型混淆矩阵
Fig.11Confusion matrix of intention recognition model
12不同模型检测准确率对比
Fig.12Variations in accuracy on test set of different models
13不同模型检测损失值对比
Fig.13Variations in loss on test set of different models
14在无噪声情况和有噪声情况下不同模型准确率对比
Fig.14Accuracy comparisons of different models without and with noise
1我方航天器S初始轨道根数
2“受控圆形绕飞”参数设置
3“受控圆形绕飞”机动信息
4“受控水滴绕飞”参数设置
5不同模型检测结果对比
ANSELMO L, PARDINI C. Analysis of the consequences in low Earth orbit of the collision between COSMOS 2251 and IRIDIUM 33[C]//Proceedings of the 21st International Symposium on Space Flight Dynamics,2009.
袁利, 姜甜甜. 航天器威胁规避智能自主控制技术研究综述[J]. 自动化学报,2023,49(2):229-245.YUAN L, JIANG T T. Review on intelligent autonomous control for spacecraft confronting orbital threats[J]. Acta Automatica Sinica,2023,49(2):229-245.(in Chinese)
JIANG W, HAN D Q, FAN X,et al. Research on threat assessment based on dempster-shafer evidence theory[C]//Proceedings of International Conference on Green Communications and Networks,2012:975-984.
TAKATA G, GORMAN J. Probabilistic evidential reasoning with symbolic argumentation for space situation awareness[C]//Proceedings of the AIAA Infotech@Aerospace,2010.
赵福均, 周志杰, 胡昌华, 等. 基于置信规则库和证据推理的空中目标意图识别方法[J]. 电光与控制,2017,24(8):15-19,50.ZHAO F J, ZHOU Z J, HU C H,et al. Aerial target intention recognition approach based on belief-rule-base and evidential reasoning[J]. Electronics Optics & Control,2017,24(8):15-19,50.(in Chinese)
AZAREWICZ J, FALA G, HEITHECKER C. Template-based multi-agent plan recognition for tactical situation assessment[C]//Proceedings of the Fifth Conference on Artificial Intelligence Applications,1989:247-254.
KROZEL J, ANDRISANI D. Intent inference and strategic path prediction[C]//Proceedings of the AIAA Guidance, Navigation,and Control Conference and Exhibit,2005.
RIORDAN B, BRIMI S, SCHURR N,et al. Inferring user intent with Bayesian inverse planning:making sense of multi-UAS mission management[C]///Proceedings of the 20th Annual Conference on Behavior Representation in Modeling and Simulation,2011:49-56.
ZHANG H L, LUO J J, GAO Y,et al. An intention inference method for the space non-cooperative target based on BiGRU-self attention[J]. Advances in Space Research,2023,72(5):1815-1828.
RANA R, EPPS J, JURDAK R,et al. Gated recurrent unit(GRU)for emotion classification from noisy speech[EB/OL].(2016-12-13)[2024-01-03].https://arxiv.org/abs/1612.07778.
SUN Q B, DANG Z H. Deep neural network for non-cooperative space target intention recognition[J]. Aerospace Science and Technology,2023,142:108681.
罗亚中, 周建平. 航天任务分析与设计工业软件发展战略分析[J]. 力学与实践,2024,46(2):241-249.LUO Y Z, ZHOU J P. Development strategic analysis for space mission analysis and design industrial software[J]. Mechanics in Engineering,2024,46(2):241-249.(in Chinese)
XING Y P, YIN Z Y, WEI C S. Appointed-time safety-guaranteed control for spacecraft flying around non-cooperative target based on fully actuated system theory[J]. International Journal of Systems Science,2024,55(12):2570-2588.
STRAIGHT S D. Maneuver design for fast satellite circumnavigation[D]. Ohio: Air Force Institute of Technology,2004.
WANG W, RUAN W H, MENG X F. MODE-Bi-GRU:orthogonal independent Bi-GRU model with multiscale feature extraction[J]. Data Mining and Knowledge Discovery,2024,38:154-172.
IZZO D, MÄRTENS M, PAN B F. A survey on artificial intelligence trends in spacecraft guidance dynamics and control[J]. Astrodynamics,2019,3:287-299.
周旺旺, 姚佩阳, 张杰勇, 等. 基于深度神经网络的空中目标作战意图识别[J]. 航空学报,2018,39(11):200-208.ZHOU W W, YAO P Y, ZHANG J Y,et al. Combat intention recognition for aerial targets based on deep neural network[J]. Acta Aeronautica et Astronautica Sinica,2018,39(11):200-208.(in Chinese)
尹翔, 张萌, 陈梦乔. 基于判别分析的空中目标作战意图识别[J]. 弹箭与制导学报,2018,38(3):46-50.YIN X, ZHANG M, CHEN M Q. Combat intention recognition of the target in the air based on discriminant analysis[J]. Journal of Projectiles, Rockets, Missiles and Guidance,2018,38(3):46-50.(in Chinese)