摘要
针对空间目标在低频次观测的小样本识别场景中,不同姿态下图像表征变化剧烈导致的辨识性特征提取难、图像间特征关联难的问题,提出一种自适应交叉融合局部特征的空间目标小样本识别方法。在现有小样本学习框架上,引入基于自注意力和互注意力的特征交叉融合模块,自适应地学习局部特征之间的相关关系,提高不同姿态下特征提取的判别性和鲁棒性,有效挖掘支持集和查询集之间的相似性,提升存在表征差异条件下的特征关联准确性。同时,在损失函数中引入基于邻域密度的样本标签权重,以解决空间目标数据集中姿态不均衡导致的网络模型学习偏差问题。通过在不同数据集上的验证,证明提出的方法具有更高的识别精度。
Abstract
In the few-shot recognition scenario of space targets observed at low frequency, the drastic changes in the image representation of space targets in different poses challenges to the extraction of discriminative features and the correlation of features between images. To address these issues, the few-shot space target recognition method based on adaptive cross fusion of local features was proposed. Based on the existing few-shot learning framework, the feature cross fusion module based on self-attention and cross-attention was used to adaptively learn the correlation between local features, improve the discriminant and robustness of feature in different poses, effectively explore the similarity between the support set and the query set, and improve the accuracy of feature association with representation differences. Meanwhile, the sample label weight based on neighborhood density was employed into the loss function to solve the learning bias problem of the network model caused by unbalanced space target datasets. Through the verification on different datasets, the proposed method is proved to achieve higher recognition accuracy.
空间目标识别是空间监视的基础任务,同时也是后续特性研判任务的前提。传统的空间目标识别手段是通过目标在轨位置确认其身份,随着航天活动日趋复杂,目标轨道机动频繁发生,临近轨道目标大量增加,仅靠目标轨道信息往往难以准确、唯一地辨别目标身份。近年来,天基监视卫星以其平台灵活、成像距离短的优势受到广泛重视,基于天基光学图像识别空间目标身份是空间监视的重要手段,具有急迫的现实应用需求。
在实际场景中,轨道交会成像是较为常见的天基光学成像方式,即观测平台和观测目标各自在轨运行中,两者间隔距离符合成像要求时进行成像。由于相对速度快、交会时间短,加之运行轨道的位置约束,一次交会成像数据有限,因此低频次观测目标(如新入轨的空间目标)短期内无法积累大量样本,难以满足传统的识别网络训练需求。基于航天器结构设计具有一定共性准则这一前提,解决以上问题的一个有效思路是将其他目标的历史观测信息迁移到低频次观测目标的识别任务中,即可视为小样本识别问题,从而提高低频次观测目标的识别率。然而,不同姿态下空间目标图像表征变化明显,类内差异显著,如图1所示,给识别任务带来极大挑战。一方面,网络提取目标的辨识性特征难度大幅增加;另一方面,同一特征在不同姿态下差异较大,极易造成关联失配。此外,对于成像时间内在轨姿态调整频繁的目标,观测视角通常无法均匀变化,造成观测样本库中类内姿态空间分布不均衡,从而导致分类器过多关注姿态密集的样本,这也限制了空间目标识别性能的提升。

图1不同姿态下表征差异较大的空间目标
Fig.1Space targets with large representation difference with different pose
当前,智能方法在空间目标识别领域的应用仍处于初步探索阶段,大多数研究依然沿用地物目标适用的检测识别网络[1-2],对于太空观测特殊场景下低频次观测目标的识别问题缺乏深入研究。Yang等[3]提出了融合星本体和星翼部件语义信息的细粒度识别算法来提高识别精度。收集大量数据与部件提取标定的困难,制约了这种方法的性能提升。此外,低频次观测目标样本的缺乏无法满足深度学习模型训练的需要,会导致平均识别精度低,Yang等[4]提出用小样本识别方法解决这一问题,并引入带有类内紧凑原则的损失函数缓解类内差异较大的问题,但并未从特征提取层面提出解决方法,识别精度仍然受限于网络的特征表达能力,在面对复杂性高、差异性大的空间目标时识别效果不理想,需要进一步研究如何从特征层面提升空间目标识别的性能。
基于度量学习的小样本识别方法[5-12]为样本不足条件下的目标识别提供了思路。在小样本学习网络中引入注意力机制,可以加强网络对辨识性特征的关注,这对于解决空间目标识别中类内差异大的问题具有重要意义。Hou等[9]提出的交叉注意网络,解决了图像中包含多个对象时难以准确捕捉到目标的问题。Kang等[10]通过基于相似性的自相关和交叉相关,分别学习图像内相关区域和图像之间的关系,以此来突出目标物体区域,从而达到定位目标的效果。Tong等[11]提出的DBRN网络设计了两个通道注意力和空间注意力模块,对特征嵌入网络提取的特征进行空间和通道加权,以便模型能够更多地关注两幅图像的相似部分。Ren等[12]提出的MLFRNet网络通过随机裁剪提取图像的局部特征,并提出一种多局部特征关系模型来探索局部特征之间的关系。这些网络本质上都是利用点积或余弦相似度计算局部特征之间的相关性,基于支持集和查询集的相似性捕捉、增强特征。这种相关性的计算是预先设定、固定不变的,不能通过网络学习自适应调整。在空间目标识别背景中,如果同一目标在不同姿态下出现形变,仅仅利用图像间的相似性来计算局部特征的注意力权重难以使网络关注到对分类有帮助的特征。Transformer中强大的注意力机制能够长距离地交互上下文和理解内在特征[13],借鉴这种思想,提出参数可学习的自适应特征交叉融合模块,取代原有基于相似性增强特征的做法,加强局部特征之间的交互融合[14-16],帮助网络提取出更具判别性的特征,进而提高决策能力。
综上所述,制约低频次观测空间目标识别的核心问题是样本空间中图像表征类内差异大,以及姿态分布不均衡。针对以上问题,基于特征提取和相似性度量框架的小样本识别基本架构,从自适应交叉融合特征、均衡不同姿态样本关注度的思路出发,提出了一种适用于轨道交会成像场景下的空间目标小样本识别方法。
1 问题定义
采用基于任务训练机制的元学习框架实现低频次空间目标识别,本质思想是将其他目标的历史观测信息泛化到低频次空间目标识别任务场景下。空间目标识别场景下存在已积累有大量带标签样本的空间目标数据集Dtrain,其中有Ctrain个类别,用作训练和验证。同时,使用仅有少量标签样本的低频次观测目标数据集Dtest进行测试,其中有Ctest个类别,与训练集Ctrain个类别不交叉。
当实验设置为N-way K-shot的形式时,在训练阶段,从数据集Dtrain中随机抽取N个类,每类取K个做支持集S,再抽取15个做查询集Q,训练模型学习从查询集图像到支持集N个类标签的映射。在测试阶段,同样从数据集Dtest中选取N个类别,每个类提供K个带标签样本做支持集,即可使用模型学习到的映射将剩余的无标签查询集分类为支持集的N个类之一。实验部分将在5-way 1-shot和5-way 5-shot的实验设置下给出分类精度。
2 整体网络体系
所提方法的网络结构如图2所示,主要包含特征提取模块、自适应特征交叉融合模块和相似性度量模块。以5-way 1-shot的实验设置为例,训练阶段从Dtrain里选取5个类别,每个类别随机抽取一个样本组成支持集S={S1,S2,S3,S4,S5},查询集Q。支持集S和查询集Q经过预处理,以84×84的分辨率送入特征提取模块。特征提取模块采用ResNet-12的卷积网络结构[17],得到特征图(h=5,w=5,c=640),将其展平看作是两组m个d维(m=h×w,d=c)的局部描述子序列:。特征交叉融合模块自适应地增强和融合局部描述子之间的信息,得到筛选出重要信息的图像局部描述子序列。最后,提出局部特征级的相似性度量模块,该模块基于局部特征之间的相似性求得查询集与5个类别之间的相似度得分,通过分类器将查询集分类为与之对应的相似度得分最高的类别。图2中的虚线仅在训练过程中存在,训练时计算两个分类器损失优化网络,测试时仅取相似性度量分类器的结果作为分类结果。其中,自适应交叉融合模块是网络核心部分,下面将对其进行详细介绍。

图2本文方法网络结构
Fig.2Network structure of the proposed method
2.1 基于自注意力的特征交叉融合模块
基于自注意力的特征交叉融合模块的作用是通过自适应学习并增强不同空间位置之间的特征相关关系,保留重要特征并消除冗余和噪声信息,准确定位更具辨识性和姿态鲁棒性的深层特征。该模块为后续的物体检测和识别任务提高了性能和可靠性,具体结构如图3所示。
将支持集和查询集的特征图展平得到局部描述子向量序列FS、FQ,送入基于自注意力交叉融合模块,首先加上空间位置编码信息避免展平后丢失位置信息,使用2D扩展的标准位置编码[14]描述空间位置信息,即
(1)
其中, f(x,y)i表示特征图中位置为(x,y)的图像局部描述子中第i个特征通道的编码信息,i为特征通道索引。,d为图像局部描述子特征通道数,n取表示向上取整。
通过多头注意力衡量各个局部描述子的重要程度,并在特征融合过程中进行加权。设注意力交叉融合模块的输入是图像局部描述子向量序列X,经过线性层实现的变换矩阵得到查询向量q、键向量k和值向量v。类似于信息检索,根据每个值v对应的查询向量q与键向量k的点积计算出注意力权重,并从值向量v中检索信息。这个过程可表示为:

图3基于自注意力的特征交叉融合模块
Fig.3Feature cross fusion module based on self-attention
(2)
(3)
该模块的核心在于通过可学习的变换矩阵,自适应地筛选出对分类有帮助的特征信息,并消除冗余信息。
多头注意力机制是使用多组权值矩阵得到多组q、k、v,计算出多个信息矩阵后拼接,并使用线性层进行融合,则多头注意力机制可表示为:
(4)
(5)
其中,,d=640,k=8,dk=d/k=80,在Mini-ImageNet数据集上设置多头注意力中的融合线性层为两层,其余数据集为一层。
送入自注意力模块的支持集和查询集局部描述子序列分别表示为FS、FQ,经过基于自注意力交叉融合模块后用F′S、F′Q表示:
(6)
(7)
2.2 基于互注意力的特征交叉融合模块
基于自注意力的交叉融合模块主要考虑了图像内部的信息交互,忽略了不同图像之间存在相关关系的特征,这可能会降低同类图像之间的相似性。因此引入了基于互注意力的特征交叉融合模块,通过对支持集和查询集的图像局部特征序列进行交叉关注,挖掘出支持集和查询集之间的局部特征相关性,提高模型对图像之间相似性的理解。
如图4所示,查询集和支持集经过可学习的变换矩阵得到各自的查询向量、键向量和值向量,为了增加图像之间的信息交互,用支持集F′S的查询向量q从F′Q的值向量v′中检索信息,相对应地,用查询集F′Q的查询向量q′从FAs的值向量v中检索信息,通过此过程交互融合图像之间的有用信息,增强图像之间相似的部分。经过基于互注意力交叉融合模块的支持集和查询集用FAs、FAq表示:
(8)
(9)

图4基于互注意力的特征交叉融合模块
Fig.4Feature cross fusion module based on cross-attention
2.3 基于局部特征相似性的度量模块
相似性度量模块计算支持集和查询集的相似度得分。现有的相似性度量大多先对两幅特征图全局平均求得特征向量,再计算两者之间的余弦相似度,这种方式可能会损失许多有区分度的信息。为了更加准确地描述图像的特征、监督网络中局部特征之间的信息交互,采用基于局部特征相似性的度量模块。每个局部描述子对应图像中的一个局部区域,使用余弦相似度计算两幅图所有对应局部描述子之间的距离,然后取均值作为两幅图的相似度。基于局部特征相似性的度量可以充分地利用每个局部特征向量的信息,同时保留每个局部特征向量之间的相似性和差异性。经过自适应特征交叉融合后得到,则支持集和查询集的相似性得分计算公式如下:
(10)
2.4 多分类器损失函数
构建有两个分类器,分别是相似性度量分类器和全连接层分类器。首先介绍相似性度量分类器,输入网络的支持集有N类,每类有K个样本,经过特征提取与注意力模块得到嵌入向量S′=[(FAs_1,···,FAs_k),(FAs_2,···,FAs_2k),···,(FAs_N,···,FAs_Nk)],依据文献[7]将同类样本的嵌入向量取平均值作为该类的表征,即类原型中心S′pro=[Fs1,Fs2,···,FsN],度量模块输出查询集FAq与N个类别的相似度即预测值,利用softmax函数求得相似性度量分类损失。相似性度量分类器的损失函数计算如下:
(11)
其中:yi为真实值,只有正确类别yi=1,其他N-1个类别为yi=0;τ为温度系数,在Mini-ImageNet的实验中取0.001,在其他数据集上取0.01。
此外,针对特征提取模块,在其后构建了单层全连接分类器,以监督特征提取模块提取更为准确的特征。查询集经过特征提取模块得到特征图FQ,通过全连接层,得到对每个类别的预测结果。全连接分类器的损失函数如下:
(12)
其中,Wi、bi分别是第i个类别的权值矩阵和偏置,一共Ctrain个类别。
此外,天基光学成像条件受限,数据集在姿态空间往往数量不均衡,且空间目标由于受姿态属性的影响图像表征差异很大,对于以总体分类精度为目标的网络而言,类内姿态不均衡势必会导致网络在训练时过多关注姿态属性密集的样本,潜在增加了网络提取特征时的偏差。针对以上问题,引入一种基于邻域密度的样本标签权重来自适应均衡损失函数,利用标签信息提高网络对不平衡数据的识别性能。该方法通过计算每个样本在特征空间中的邻域密度,来确定每个样本在损失函数中的标签权重,降低邻域密度高的样本在损失函数中的占比,增加邻域密度低的样本对损失函数的占比,缓解了数据不均衡的问题。
训练数据集Dtrain某一类数据子集为Di(i∈[1,Ctrain]),其中一个样本的向量为x,欧式距离阈值为d,可以用以下公式表示以x为中心,同一类内与x的欧式距离小于d的图像样本数量:
(13)
其中,表示图像表征向量之间的欧式距离。I(·)表示当r(x,y)≤d时取1,r(x,y)>d时取0。以每幅图像为中心距离阈值内的样本数量与该图像在类内姿态属性空间的邻域密度成正比,与在均衡不同姿态样本后的损失函数中所占权重成反比,人为地纠正网络对多数样本的关注偏差,权重计算如下,其中γ是超参数:
(14)
最终网络的损失函数在基于邻域密度的样本标签权重的加权下,可表示为:
(15)
式中,λ是两个分类器损失的权重比,在Mini-ImageNet数据集上设为0.125,在其他数据集上设置为0.75。
3 实验及结果分析
3.1 数据集和实验设置
3.1.1 数据集
验证实验中使用了公开数据集Mini-ImageNet、CUB-200以及自制的三个空间目标数据集,具体信息如表1所示。
表1数据集信息
Tab.1 Dataset information

CUB-200数据集包含鸟类的200个子类,图像分辨率较高,是小样本识别常用的公开数据集,同时也是细粒度视觉分类任务广泛使用的数据集。
Mini-ImageNet数据集是从ImageNet数据集抽取的100类组成的,常用于小样本图像分类,每幅图像的尺寸为84像素×84像素。
BUAA-SID1.0(以下简称BUAA)是由张浩鹏等[18]制作的空间目标全视点仿真图像序列,包含20颗卫星、230个采样视点对应的灰度图像,图像分辨率为320像素×240像素。为了验证所提方法对姿态不均衡数据集的效果,将BUAA中部分视点的图像删去,以得到姿态不均衡的数据集BUAA_unbalanced。依据文献[18]中用经纬度表示视点,如图5所示。

图5数据集采样视点
Fig.5Sampling viewpoints of the dataset
NASA Satellite 由于目前开源的空间目标数据集有限,利用Blender软件对从NASA官网获取的36个NASA卫星的3D模型进行渲染制作了两组数据集,第一组包含了随机生成的300个不均衡的姿态,第二组数据集遵循航天动力学轨道运动规律[19]模拟真实场景中空间目标与天基空间监视平台10次交会时成像图像中空间目标的姿态,每次交会成像20幅,共200个姿态。以下分别简称为NASA Satellite dataset1、 NASA Satellite dataset2。两组数据集的姿态属性用欧拉角来描述,如图6所示。

图6空间目标数据集样本姿态
Fig.6Sample pose in space target dataset
3.1.2 实验设置
实验均在Ubuntu20.04平台、编程语言为 Python3.7、深度学习框架为Pytorch1.11.0版本、显卡为NVIDIA A100的环境下进行。采取5-way 1-shot、5-way 5-shot两种参数设置下的实验评估所提方法,最终精度以随机抽取的测试集95%置信区间的平均分类精度为准。采用随机梯度下降(stochastic gradient descent,SGD)作为优化器,在公开数据集上动量值为0.9,权值衰减值设为0.000 5,初始学习率设置为0.1;在空间目标数据集上权值衰减值设为0.001,初始学习率设置为0.05。在5-way 1-shot时迭代次数为80,在第60、70次迭代时学习率分别降为0.01、0.002;在5-way 5-shot时迭代次数为60,在第40、50次迭代时学习率分别降为0.01、0.002。Mini-ImageNet、CUB-200、空间目标数据集的BatchSize分别设为64、32、128。在空间目标数据集上实验时,BUAA_unbalanced、NASA Satellite dataset1、NASA Satellite dataset2分别设置d=600、d=3 000、d=4 500,γ=2、γ=4、γ=5,公开数据集不引入基于邻域密度的样本标签权重。
3.2 实验及结果分析
3.2.1 对比实验
表2~4展示了所提方法及目前主流的小样本识别方法在两个公开数据集和空间目标数据集NASA Satellite dataset2上的实验结果。其中,RN[8]和DN4[20]是广泛应用于小样本学习任务中的经典方法,具有不错的性能表现;CAN[9]、RENet[10]和DBRN[11]是基于相似性增强特征的代表方法;LMPNet[21]和DeepEMD[22]、CGRN[23]是表现优异的前沿小样本识别方法。以上方法在公开数据集Mini-ImageNet、CUB-200上的实验精度均引自对应文献。
表2不同方法在CUB-200数据集上的分类精度
Tab.2 Recognition accuracy of different methods on the CUB-200 dataset

表3不同方法在Mini-ImageNet数据集上的分类精度
Tab.3 Recognition accuracy of different methods on the Mini-ImageNet dataset

表4不同方法在NASA Satellite dataset2 数据集上的分类精度
Tab.4 Recognition accuracy of different methods on the NASA Satellite dataset2

可以看出所提方法在3个数据集上的整体性能优于其他方法,在CUB-200数据集上,所提方法在5-way 1-shot和5-way 5-shot实验中分别高于最先进方法1.65%、0.24%;在Mini-ImageNet数据集和NASA Satellite dataset1上,在5-way 1-shot实验均取得当前最好的结果,这说明所提方法在5-way 1-shot的实验设置下效果更好,能够在有限的数据样本中获得尽可能有效的信息,表现出良好的泛化能力和样本利用率。同时,与基于相似性融合特征的CAN、RENet和DBRN网络相比,提出的方法均取得了更好的结果,这表明自适应特征交叉融合机制可以在少数样本中更有效地提取到辨识性特征并增加特征关联的正确性,从而提高了识别精度。
3.2.2 消融实验
为了验证基于自注意力交叉融合模块和基于互注意力交叉融合模块的有效性,在CUB-200数据集的5-way 1-shot实验中进行模块消融实验,结果如表5所示,仅使用基于自注意力交叉融合模块可以帮助网络提取更有辨识性的特征,因而分类精度提升了0.79%。其中,“√”表示实验中用到了此模块。仅使用基于互注意力交叉融合模块可以帮助网络增加支持集和查询集的相似性,有小幅度的提升。当两个模块共同协作时,有效定位显著特征和挖掘图像之间的相似性相互辅助,网络的分类效果达到最好,提升了1.4%。
表5在CUB-200数据集上的模块消融实验
Tab.5 Ablation experiment on the CUB-200 dataset

此外,为了验证基于邻域密度的样本标签权重对不均衡数据集有效,分别在三组姿态不均衡的空间目标数据集上进行权重消融实验。数据集中部分空间目标的图像表征受姿态影响较大,导致该类别的分类精度较低,为了观察引入基于邻域密度的损失权重对这种姿态不均衡是否有效,除了分类精度,还引入宏平均F1来衡量网络对各个类别空间目标的综合分类性能。多分类任务中常用F1来综合评价准确率P和召回率R两个指标,宏平均F1是对所有类别的F1平均求得,反映了各个类别的综合性能,计算公式如下:
(16)
在5-way 1-shot 和5-way 5-shot数据集上进行消融实验,结果如表6~7所示。从表6和表7可以看出,提出的自适应损失均衡化方法在不同数据的空间目标识别任务中均取得了较好的性能提升。在BUAA_unbalanced、NASA Satellite dataset1、NASA Satellite dataset2三个数据集5-way 1-shot的实验中,精度分别提升了3.43%、1.82%、0.99%,宏平均F1也相应提升了2.65%、1.89%、2.34%。此外,在5-way 5-shot实验中,精度分别提升了1.283%、1.767%、1.483%,宏平均F1提升2.0%、3.08%、4.12%。可以看出,通过引入邻域密度信息可以自适应损失均衡化,使网络更加关注于邻域稀疏区域的样本,进而提高了网络的识别性能。
表6在空间目标数据集上5-way 1-shot的权重消融实验
Tab.6 Weight ablation experiment in 5-way 1-shot task on space target datasets

表7在空间目标数据集上5-way 5-shot的权重消融实验
Tab.7 Weight ablation experiment in 5-way 5-shot task on space target datasets

四组实验训练时的损失函数曲线图如图7所示,随着迭代次数的增加损失值呈下降趋势,在一定迭代次数之后趋于稳定,可以证明本文模型的有效性。还提供了所提方法在NASA Satellite dataset2数据集5-way 5-shot的实验中未加权重与加权重情况下的分类结果混淆矩阵图,如图8所示,可以直观地看到加权重之后网络对不同类别之间的混淆有一定的减少,虽然对MarsGlobalSurveyor和cluster_ii_v09这两类卫星的分类精度有微弱下降,但其余类别的分类精度均有所提高,验证了所提出方法的有效性。

图7模型训练损失函数曲线图
Fig.7Curve of model training loss function

图8本文方法在NASA Satellite dataset2 数据集上的分类结果混淆矩阵图
Fig.8Confusion matrix diagram of the proposed method on NASA Satellite dataset2
3.2.3 样本数量实验
为了探索提出小样本方法的目标识别性能与样本数量的关系,在NASA Satellite dataset2数据集5-way的实验中设置不同的K-shot对模型进行训练并测试,识别精度在表8中给出。
表8在NASA Satellite dataset2数据集 5-way K-shot的性能比较
Tab.8 Performances comparison with 5-way K-shot on NASA Satellite dataset2

从表8可以看出,模型的分类精度随着每类的样本数量增加而提高,在15-shot时开始呈现一个相对稳定的趋势。可以看出每类15个样本可以提供足够的类别信息,能够比较准确地代表整个类别,得到一个理想的精度。
3.2.4 可视化实验
为了更加清晰地展示自适应局部特征交叉融合模块对模型性能的提升,在多组数据集5-way 1-shot的实验结果中选取了三对支持集和查询集经过交叉融合后的特征图,并通过双线性插值得到的输入图像大小的特征热力图,如图9所示。在这些特征热力图中,不同的颜色代表不同强度的特征响应,红色表示某个区域在样本分类中更加重要,蓝色则表示该区域分类贡献较小,可视化地展示了自适应局部特征交叉融合模块能够更好地捕捉支持集和查询集之间相似的辨识性特征。在Mini-ImageNet数据集中,蚂蚁、汽车的形态甚至数量变化后,通过局部特征之间信息的交互,网络依旧可以找到相似的目标部分;在CUB-200数据集上,网络更加关注的是鸟类的喙、斑纹等更具辨识性的特征,即使在鸟类的姿态或者背景发生变化时依然能正确识别。在空间目标数据集中,由于图像表征中同一卫星姿态的不同,帆板或者主体部分的形态、纹理也会发生变化,但是网络能够自适应地关注一些变化较小的部件,从而实现对目标的有效识别。综上所述,所提出的方法在各数据集中都取得了出色的性能表现,充分验证了提取辨识性特征以及提高特征关联准确性的优势。

图9本文方法在多个数据集上的可视化结果
Fig.9Visualization of the proposed method on different datasets
4 结论
在低频次观测的空间目标识别的背景下,针对现有的小样本学习方法无法适应空间目标数据集类内表征差异大且姿态属性不均衡的问题,提出了一种自适应特征交叉融合的空间目标小样本识别方法,并进行了所提方法与主流小样本识别方法的详细对比实验,以及模块消融实验。结果表明,提出的方法能够显著提升网络提取特征的辨识性和姿态鲁棒性,并且能够缓解空间目标数据集姿态属性不均衡造成的网络学习偏差问题。在空间目标识别领域,本文方法的提出为解决小样本识别的问题提供了新的思路和方法。