中国科学院大学学报  2025, Vol. 42 Issue (6): 823-831   PDF    
基于双分支特征融合卷积神经网络的高分辨距离像船只目标识别
朱思键1,2, 齐向阳1, 范怀涛1     
1. 中国科学院空天信息创新研究院, 北京 100190;
2. 中国科学院大学电子电气与通信工程学院, 北京 100049
摘要: 为提高雷达高分辨距离像船只目标识别准确率,提出一种基于双分支特征融合卷积神经网络的船只目标识别方法。设计了提取不同层次特征的2个分支。使用堆叠卷积层结构且降采样次数少的细节分支,提取船只的高分辨率局部特征;使用模块化结构组成全局分支,提取船只的低分辨率全局姿态特征。根据特征图通过2个分支后的维度变化,在特征融合模块中对2种特征进行尺寸调整,相互融合并输出识别结果。实验结果显示,所提方法与传统识别方法相比,收敛更快、参数量更少且具有更高的准确性,验证了其在高分辨距离像船只分类任务上的有效性。
关键词: 船只目标识别    高分辨距离像    卷积神经网络    特征融合    
HRRP ship targets recognition based on double branches feature fusion convolutional neural network
ZHU Sijian1,2, QI Xiangyang1, FAN Huaitao1     
1. Aerospace Information Research Institute, Chinese Academy of Sciences, Beijing 100190, China;
2. School of Electronic, Electrical and Communication Engineering, University of Chinese Academy of Sciences, Beijing 100049, China
Abstract: To improve the accuracy of radar high resolution range profile ship target recognition, a ship target recognition method based on dual-branch feature fusion convolutional neural network model is proposed. Two branches are designed to extract features at different levels. The method designs a stacked convolutional detail branch with reduced downsampling to extract high resolution local features of ships. The global branch is composed of a modular structure used to extract low resolution global attitude features of ships. Based on the dimensional changes of the feature map after passing through two branches, the two features are changed in size separately in the feature fusion module, and the features are fused with each other to output recognition results. The experimental results show that the proposed method has faster convergence, fewer parameters, and higher accuracy compared to traditional recognition methods, verifying its effectiveness in HRRP ship classification.
Keywords: ship target recognition    high resolution range profile    CNN    feature fusion    

高分辨距离像(high resolution range profile, HRRP)是高分辨率雷达获取的目标散射点回波在雷达视线方向之和[1],它反映目标的散射体信息,包含如径向长度、结构起伏特征、散射点分布等丰富的信息。与传统的合成孔径雷达(synthetic aperture radar, SAR)与逆合成孔径雷达(inverse SAR, ISAR)相比,HRRP具有数据量小、处理速度快等优点,因此基于HRRP的目标识别技术具有重要的研究意义。

目前针对HRRP目标识别的研究主要分为传统方法和机器学习方法两大类。传统方法的研究以特征提取和分类器优化[2]为主。传统的数学特征和物理特征具有明确的物理意义,这些特征可解释性强,但是在实际使用过程中需要足够的先验知识,并且可能存在特征区分度低、泛用性差等问题。近年来,一些深度学习的方法在HRRP识别领域取得了比传统方法更好的性能[3],如循环神经网络[4]和卷积神经网络(convolutional neural network, CNN)[5]。循环神经网络通过循环机制利用HRRP的时序信息进行识别,但是序列的总体长度与输入序列各时刻的维度相互制约,不利于大型目标识别。CNN能够提取图像的深层特征,同时对图像的平移不敏感,而HRRP中的平移主要体现在距离方向,因此CNN在HRRP识别中有较强的适用性。文献[6]将CNN用于HRRP空中目标分类,证明CNN相比于传统方法的识别率更高,并且对姿态的敏感性和适应性更强。文献[7]使用格拉姆角场将HRRP数据变换到二维图像,利用CNN进行识别,但是忽略了原始HRRP中的结构特征。文献[8]使用CNN对多种目标进行分类,但其实验中只使用了仿真数据。文献[9]在CNN中堆叠自注意力机制以提升准确率,但网络结构的复杂性大幅增加。文献[10]使用多尺度卷积层融合提取目标HRRP的特征,但是只利用仿真数据进行实验在选定的角域内进行识别。Karabayir等[11]利用CNN对6类民船和军船分类,在他们自己数据集上的识别精度达到93.90 %。文献[12]为克服CNN不能有效利用HRRP中时间特征的局限性,提出一种二维递归神经网络来解决单个HRRP中的跨时间依赖关系从而提高识别性能。文献[13]研究了一种基于堆叠CNN-BiLSTM的HRRP自动目标识别方法。通过将CNN和长短期记忆模型组合,解决循环神经网络中容易出现的长期依赖问题,避免梯度消失,有效提高了HRRP目标的识别性能。郭帅等[14]利用Transformer对HRRP识别,但是Transformer需要大量的计算资源,训练和使用代价昂贵。实际中,待识别目标往往为非合作目标,目标的姿态变化较大,而HRRP易受到姿态敏感性影响,目标姿态角的变化会使HRRP变化剧烈。并且各类目标的数量差异较大,属于不平衡分类问题,不同种类的样本数量差异明显时,容易导致样本小的类别识别率低。目前的CNN主要通过增加网络的深度来提取深层的结构特征,却忽略了船只的浅层的整体特征,没有考虑到目标的姿态变化与HRRP中结构特征变化的联系。因此,本文提出基于双分支特征融合卷积神经网络(dual-branch feature fusion convolutional neural network, DBFFCNN)的HRRP目标识别方法,同时提取深层的细节特征和浅层的全局特征并融合,充分利用船只姿态变化与结构特征变化的相关性。

1 基于特征融合CNN的识别方法

在训练CNN的过程中通常使用梯度下降法更新参数,对数据进行归一化可以使得网络的训练更加稳定,并且能使网络更快收敛。如果输入数据的尺度大,会导致网络的参数更新速度变快;如果输入数据的尺度过小,则会使参数更新缓慢,导致网络难以收敛,因此归一化在CNN的训练和收敛中起到了重要的作用。

HRRP具有幅度敏感性。由于雷达参数、目标位置、散射特性等因素的影响,同一雷达测量同一目标时,HRRP的幅度会存在差异。为使HRRP具有统一的尺度,需要对所有HRRP数据进行归一化处理。若Xi为HRRP实数数据的输入矩阵,则归一化后的数据Xi可表示为

$ \boldsymbol{X}_i^{\prime}=\frac{\boldsymbol{X}_i-\min \left(\boldsymbol{X}_i\right)}{\max \left(\boldsymbol{X}_i\right)-\min \left(\boldsymbol{X}_i\right)} . $ (1)

本文提出的DBFFCNN包含3个主要结构:细节分支、全局分支和融合模块。模型的结构如图 1所示。

Download:
图 1 本文所提模型 Fig. 1 The proposed model
1.1 细节分支

细节分支的作用为提取HRRP目标的结构细节特征,由于HRRP中目标的结构信息丰富,因此需要充分提取HRRP细节特征。细节分支参考传统CNN[15]识别方法和VGG[16]模型并做出改进优化。细节分支的具体结构如图 2所示。

Download:
图 2 细节分支模块 Fig. 2 Detail branch module

细节分支整体上使用卷积层堆叠组成,第1、2、3层中的卷积核个数为64,第4、5层中的卷积核个数为128,第6、7、8层中的卷积核个数为256。各卷积层中均使用批归一化,激活函数选择ReLU。为了得到足够多的细节信息,在每一层中的卷积核个数设置得较多,大小均为1×3,选择较小的卷积核是为了使提取出的特征更细致。相比于直接使用大卷积核,堆叠较小的卷积核能够降低卷积层的运算量。从整体上看,该分支的结构随着网络层数的增加,卷积层的通道数也在增加,使用较大的通道数可以增加网络对图像信息的感知能力,提高网络的表达能力。使用较深的网络层数能够提高网络的特征提取能力。这些设计思路与传统CNN的设计思路相符合。

需要注意的是,分支中第3和第6个卷积层的步长为2,其余的卷积层步长为1,并且全都使用相同的填充方式。使用2个步长为2的卷积层进行下采样,可保证输出的维度为输入特征维度的1/4。下采样层的功能不只是减少数据维度,也提取了更深层次的特征。降采样次数过多会使目标的信息丢失严重,对提取精细的特征造成影响。由于通道数较大,该分支中保证了提取出的空间特征信息足够多。由于该分支通道数较多,为节省计算资源,在该分支中不使用残差连接或其他分支结构。

1.2 全局分支

HRRP受姿态敏感的影响严重,船只在数据中的尺度差异巨大,因此在全局分支中更关注船只的全局特征。全局分支通过一系列降采样和全局池化操作,逐步提取出更大范围的图像特征,以理解整个HRRP中的船只分布。全局分支提供了一种宏观视角,帮助理解船只在图像中的分布和整体姿态;而细节分支则提供了更具体的局部特征,有助于区分不同类型的船只和识别其细节特征。

全局分支的结构为头部的卷积层和池化层,以及5个全局分支模块。各个模块的结构相同。其中头部的卷积层中卷积核大小为1×5,通道数为64,步长为2。头部的池化层的池化大小为1×3,步长为2。该分支的结构参考了深度学习分类任务中主流的轻量化模型,例如xception[17]、mobilenet[18]和shufflenet[19]。全局分支模块如图 3所示。

Download:
图 3 全局分支模块 Fig. 3 Global branch module

图 3中,全局分支模块的结构包括1个主干和2个分支。主干由1×5卷积层、1×3分组卷积层和1×3卷积层组成,选择不同大小的卷积核是为了提取不同精度的特征。Shufflenet通过通道混洗的方式完成同一卷积层中不同通道间的信息交互,并利用深度可分离卷积中的点卷积改变特征图通道数。而在HRRP的特征图中,单个特征通常为单通道,不需要1×1的卷积与深度可分离卷积组合以降低计算量。因此本文在全局分支模块中将1×1卷积替换成1×5和1×3卷积,并用分组卷积完成通道间的信息交换。分组卷积的操作为:先将输入特征图分组,同时将其对应的卷积核也分组,然后对各个分组进行常规卷积。分组卷积的原理如图 4所示。

Download:
图 4 分组卷积 Fig. 4 Group convolution

分组处理输入特征图,可以将计算分散到不同的卷积核上,与普通卷积相比减少了计算量。组数为g时,分组后的参数量降低到原来的1/g。由于各组使用独立的卷积核进行计算,分组卷积可以减少计算量和模型参数的数量。由于每个分组都有独立的卷积核,分组卷积可以引入分组之间的特征交互,增加模型的表达能力,同时降低复杂度,提高训练和推理效率。

左侧分支为残差连接,残差连接能够融合不同层的输出,提高了特征表达能力。右侧分支为全局池化层和2个全连接层组成的通道注意力机制。全局池化层对各通道计算全局平均值,第1个全连接层将输入的全局平均值压缩,第2个全连接层将数据的维度拓展并与主干的输出相乘,实现通道上的加权。大量研究表明注意力机制可以有效地改善模型的性能[20]。通道注意力机制将特征图按通道维度加权,增加特征图中重要通道的权重,降低其他通道的权重。与其他注意力机制相比,通道注意力机制的参数量少、计算量小,高效地实现了跨通道的信息交互,让模型自主对各层特征图进行调整,从而提升准确率。

表 1为各模块的具体参数。c为卷积层的通道数,随着模块的增加,通道数增加。s为分组卷积的步长。全局分支模块第2和第4个为降采样模块,设置卷积步长设置为2,每通过一个下采样模块,特征图大小变为原来的1/2。其余模块的分组卷积步长设置为1,不改变特征图大小。d1d2分别为全连接层中的神经单元个数,通常第1个全连接层的神经单元数为输入的1/16,即与全局平均池化层相连接的卷积层通道数的1/16,第2个全连接层的神经单元数为第2个神经单元数的16倍,并且和与之相乘的特征图的通道数相同。具体参数如表 1所示。

表 1 全局分支参数 Table 1 Parameters of global branch
1.3 融合模块

融合模块将细节分支和全局分支提取的特征进行融合处理。CNN中合并2种类型的特征主要为求和与连接。然而,这2个分支的输出都具有不同级别的特征表示。细节分支特征提取的是船只的深层结构特征,而全局分支提取的是整体船只姿态信息。因此,简单的组合会忽略这2种类型信息的多样性,导致性能较差,优化困难。并且由于各分支提取的特征的维度不同,因此,简单的加和、乘法、拼接操作不利于提升识别的准确率。

本文根据HRRP数据经过各分支后特征维度的变化,设计了特征融合模块。由于在细节分支中下采样次数较少,该分支输出的特征图相比全局分支输出的特征图大,因此在融合过程中加入了下采样和上采样,分别改变细节分支和全局分支的输出特征图大小。具体的融合模块结构如图 5所示。

Download:
图 5 融合模块 Fig. 5 Fusion module
1.4 AlphaDropout

在机器学习中,常使用Dropout抑制过拟合现象。Dropout通过随机选择并停用部分神经单元,达到提升模型泛化性能的目的,降低模型对某些特定特征的过度依赖。AlphaDropout能够在抑制过拟合的同时,保持数据自身的均值和方差。SELU激活函数保证了输出是0均值和单位标准差,因此AlphaDropout和SELU激活函数通常一起使用。SELU函数中有2个超参数:λα,均由推导证明得到,而非通过训练获得,其表达式为

$ \operatorname{SELU}(z)= \begin{cases}\lambda z, & z>0, \\ \lambda \alpha(\exp (z)-1), & z \leqslant 0.\end{cases} $ (2)
2 实验结果 2.1 实验数据

本文使用FUSARShip数据集[21],其中包含15个主要船舶类别,数据集内图像为512像素×512像素的切片,数据切片来源于原始高分3号遥感图像,分辨率为1.1 m×1.7 m,极化模式包括HH和VV。选取其中100 m以上的散装货船、货轮、集装箱船和油轮4种大型船只。对数据中原始的高分辨SAR图像进行等角度间隔的旋转,角度间隔为3°,获得多个船只姿态的高分辨SAR图像。数据集中的SAR图像为实数数据,将SAR图像按方位向做平均即可转换成HRRP,因此各个类型船只的姿态角变化较为连续。HRRP数据总共13 560个HRRP样本。

为验证DBFFCNN在姿态角不完备的情况下克服姿态敏感性的能力,使用留出法从总数据中随机抽取出训练集样本10 240个,剩余3 320个作为测试集样本,使训练集和测试集的姿态角不重合。表 2给出了该数据集的组成。从表中可以看出各类船只的样本数量不完全相同,并且存在较大差异,可用于验证各类识别方法对不平衡样本问题的适用性。具体数据如表 2所示。

表 2 实验数据 Table 2 Experimental data
2.2 评价指标

使用整体准确率(overall accuracy, OA)和F1分数(F1-score, F1)评估各类方法的识别效果,其定义为

$ \mathrm{OA}=\sum\limits_{i=1}^C N_{i i} / N, $ (3)
$ F_1=\frac{1}{C} \sum\limits_{i=1}^C \frac{2 \times P_{r_{-} i} \times R_{r_{-} i}}{P_{r_{-} i}+R_{r_{-} i}} . $ (4)

其中: C为总类别,N表示各类别的数量,Pr_i表示各类别的精确率,Rr_i表示召回率。整体准确率为所有类别上的总正确率,反映模型在任务中的整体效果。F1分数的范围为0~1,既包含精确度的信息,也包含召回率的信息。F1分数能反映各类方法在数据不平衡问题下的表现。

2.3 对比实验

为验证所提算法的有效性,引入9种HRRP识别模型对4种类型船只的目标分类测试进行对比,实验结果如表 3所示。方法1~9分别为贝叶斯压缩感知(Bayesian compressive sensing,BCS)[22]、互补特征提取[23]、支持向量机、最近邻、传统CNN[15]、长短期记忆网络(long short term memory, LSTM)[12]、CNN结合双向LSTM(convolutional neural network bi-directional long short term memory, CNN-BiLSTM)[12]、CNN结合轻量级梯度提升机算法(convolutional neural network-light gradient boosting machine, CNN-LGBM)[24]、简单循环神经单元结合注意力网络(simple recurrent units-attention, SRU-Attention)[25],方法10为本文算法。CNN中激活函数采用ReLU激活函数,batch大小设置为128,迭代次数300次,使用自适应动量优化器和交叉熵损失函数。由表 3结果可以看出,所提算法在HRRP舰船目标分类任务上获得了更优的性能。具体的结果如表 3所示。

表 3 4类船只识别结果 Table 3 Recognition results of four types of ships

表 3的结果来看,方法3在集装箱船的识别率最高,而其他船只识别率的差异较大,说明支持向量机在样本不均衡时性能较差。最近邻和传统CNN方法在各类目标的识别率上较为均衡,但整体识别性能并不突出。LSTM、CNN-BiLSTM以及SRU-Attention的方法虽然整体识别率较高,但在集装箱船上的识别率较差,且该类船只平均长度最长,说明基于序列的方法识别较大的目标时仍有一定的局限性。CNN-LGBM方法将常用的Softmax分类器替换为LGBM,虽然总识别率提升,但是集装箱船的识别率却比传统CNN更低,说明该分类器仍存在局限性。本文方法在散装货船、货轮、油轮这3类船只的识别性能上达到最优,并且整体准确率和F1分数最高,说明本文方法对比目前的主流方法占据一定优势。

为进一步验证DBFFCNN对目标姿态敏感问题的适用性,从上述实验数据中,抽取出雷达视线与船体主轴夹角60°~120°的数据进行实验,方法与表 3方法相同。当夹角在60°~120°之间时,船体在距离向的投影小于船身长度的1/2,此时的船身在HRRP上重叠严重,损失了较多的结构信息。该部分数据设置和实验结果分别如表 4表 5所示。

表 4 特殊角度下的实验数据 Table 4 Experimental data in special angles

表 5 特殊角度下的结果 Table 5 Results in special angles

表 5结果可见,各方法对应各类别船只的识别准确率均降低,说明在雷达视线与船只夹角较大时,HRRP损失较多的信息导致识别率下降,其中货轮和集装箱船的识别精度下降明显。

2.4 收敛性验证

图 6(a)6(b)分别展示了DBFFCNN和其他深度学习算法在训练数据上的损失函数和准确率的变化曲线,具体变化如图 6所示。

Download:
图 6 损失函数与准确率变化 Fig. 6 Changes in loss function and accuracy

图 6可以看出,本文DBFFCNN算法的损失函数值比其他方法下降更快,当训练次数在35次时,DBFFCNN的损失函数曲线已经稳定收敛,而其他方法还需要多训练30次左右才收敛稳定。同时,DBFFCNN算法在训练集上的准确率也比其他方法提升更快,对数据的拟合效果更好,说明本文算法可以加速网络收敛,解决训练过程中损失函数收敛过慢的问题。

2.5 复杂度分析

本节从参数量和推理时间两方面分析算法的复杂度。参数量为模型包含的参数的数量,用于衡量模型的大小。推理时间是网络处理单个数据所需时间,时间越短,速度越快。深度学习的方法受到硬件水平和框架的影响,为了能够从参数量的角度统一衡量复杂度,对比方法选择传统CNN、LSTM、CNN-BiLSTM、CNN-LGBM和SRU-Attention这几类深度学习方法。结果如表 6所示。

表 6 复杂度分析 Table 6 Analysis of complexity

表 6可以看出,LSTM的每个时间步长都能独立计算,因此其参数量较多但是推理时间最快。本文提出的CNN参数量明显少于其他方法,在内存中占据更少的存储空间;而推理时间与参数量更多的传统CNN相近,是因为DBFFCNN中的分支数相对较多,当模型的分支较多时,需要等待所有支路计算完后才能进行下一步的计算,即需要等待同步时间。

2.6 消融实验

为探究各模块的合理性及其对识别性能的影响,进行了消融实验,实验结果如表 7所示。

表 7 消融实验结果 Table 7 Results of ablation experiment

表 7实验结果中,可以看出各模块对于性能的提升:引入全局分支后,算法性能得到了最大程度的提升,说明该分支在模型中的有效性和必要性;引入特征融合模块后,准确率和F1分数均提升0.15个百分比,说明特征融合方法的合理性;引入AlphaDropout后整体准确率提升0.3个百分比,同时F1分数提升0.11个百分比,缓解了舰船目标分类任务中的过拟合问题。本节对模型中各个模块做了更细致的分析,分别为:增加或删减细节分支层数、替换全局分支中分组卷积为普通卷积、剪去通道注意力机制、Dropout替换。结果如表 8所示。

表 8 细节分支的影响 Table 8 Influence of detail branch

表 8表明,当细节分支层数从8减少到6、4时,F1分数下降,整体准确率先增加后下降,说明该分支层数较少时,提取的特征会偏向于训练样本较多的类别;当层数从8增加到10、12时,整体准确率降低,F1分数略有增加而后减少,并且由于细节分支的通道数较多,会极大地增加网络的计算量。

表 9给出了分组卷积和SE(squeeze-and-excitation)注意力机制对识别的影响。将分组卷积替换为普通卷积时,货船和集装箱船的识别率提升约2个百分点,然而散装货船的识别率降低约2.7个百分点,油轮的识别率降低3个百分点,整体识别率和F1分数降低;当剪去SE注意力机制时,散装货船和货轮的识别准确率均下降,且整体准确率和F1降低1.1个百分点,F1分数降低超过2个百分点,说明注意力机制对特征的筛选作用。具体结果如表 9所示。

表 9 全局分支的影响 Table 9 Influence of global branch

表 10给出了不同的融合方法对识别结果的影响,将原始融合模块中的升采样和降采样部分拆分开分别进行测试,识别准确率和F1分数均低于同时采用升采样和降采样的融合方法的识别效果。具体结果如表 10所示。

表 10 融合模块的影响 Table 10 Influence of fusion module

表 11给出了Dropout对识别性能的影响,使用普通的Dropout时,散装货船、集装箱船和邮轮的识别精度略微降低,说明了AlphaDropout对数据的标准化进一步抑制了网络的过拟合。具体结果如表 11所示。

表 11 Dropout的影响 Table 11 Influence of dropout

根据以上实验,本文的DBFFCNN不仅提取了HRRP的高分辨率细节特征,并且引入了低分辨率的全局信息,有效提高了模型的识别能力。在训练数据不平衡的情况下,取得了优良的识别效果,且在姿态角不完备时仍能保持较高的识别率,说明该方法在一定程度上缓解了姿态敏感性的影响。

3 结论

本文提出一种基于双分支特征融合CNN的HRRP船只目标识别方法。该方法提取HRRP不同层次的特征并进行融合,有效地提高了对目标特征的描述能力和对舰船目标的识别能力。实验结果表明,与目前主流的HRRP目标识别方法相比,该方法取得了更好的识别性能。

参考文献
[1]
Li L, Liu Z, Li T. Radar high-resolution range profile feature extraction method based on multiple kernel projection subspace fusion[J]. IET Radar, Sonar & Navigation, 2018, 12(4): 417-425. Doi:10.1049/iet-rsn.2017.0391
[2]
韩磊, 姚璐. HRRP自动目标识别方法综述[J]. 北京理工大学学报, 2020, 40(4): 351-361, 381. Doi:10.15918/j.tbit1001-0645.2019.057
[3]
Bouarara H A. Recurrent neural network (RNN) to analyse mental behaviour in social media[J]. International Journal of Software Science and Computational Intelligence, 2021, 13(3): 1-11. Doi:10.4018/ijssci.2021070101
[4]
Gruber N. Detecting dynamics of action in text with a recurrent neural network[J]. Neural Computing and Applications, 2021, 33(22): 15709-15718. Doi:10.1007/s00521-021-06190-5
[5]
Li J Q, Li S J, Liu Q, et al. A novel algorithm for HRRP target recognition based on CNN[C]//International Conference on Internet of Things as a Service. Cham: Springer, 2020: 397-404.10.1007/978-3-030-44751-9_33.
[6]
王容川, 庄志洪, 王宏波, 等. 基于卷积神经网络的雷达目标HRRP分类识别方法[J]. 现代雷达, 2019, 41(5): 33-38. Doi:10.16592/j.cnki.1004-7859.2019.05.007
[7]
Lin C L, Chen T P, Fan K C, et al. Radar high-resolution range profile ship recognition using two-channel convolutional neural networks concatenated with bidirectional long short-term memory[J]. Remote Sensing, 2021, 13(7): 1259. Doi:10.3390/rs13071259
[8]
Lundén J, Koivunen V. Deep learning for HRRP-based target recognition in multistatic radar systems[C]//2016 IEEE Radar Conference (RadarConf). Philadelphia, PA, USA. IEEE, 2016: 1-6. DOI: 10.1109/RADAR.2016.7485271.
[9]
Diao Y J, Liu S W, Gao X Z, et al. CNN based on multiscale window self-attention mechanism for radar HRRP target recognition[C]//2022 7th International Conference on Signal and Image Processing (ICSIP). Suzhou, China. IEEE, 2022: 281-285. DOI: 10.1109/ICSIP55141.2022.9887058.
[10]
郭晨, 简涛, 徐从安, 等. 基于深度多尺度一维卷积神经网络的雷达舰船目标识别[J]. 电子与信息学报, 2019, 41(6): 1302-1309. Doi:10.11999/JEIT180677
[11]
Karabayır O, Yücedağ O M, Kartal M Z, et al. Convolutional neural networks-based ship target recognition using high resolution range profiles[C]//2017 18th International Radar Symposium (IRS). Prague, Czech Republic. IEEE, 2017: 1-9. DOI: 10.23919/IRS.2017.8008207.
[12]
Liu J Q, Chen B, Chen W C, et al. Radar HRRP target recognition with target aware two-dimensional recurrent neural network[C]//2019 IEEE International Conference on Signal Processing, Communications and Computing (ICSPCC). Dalian, China. IEEE, 2019: 1-6. DOI: 10.1109/ICSPCC46631.2019.8960736.
[13]
Pan M, Liu A L, Yu Y Z, et al. Radar HRRP target recognition model based on a stacked CNN-Bi-RNN with attention mechanism[J]. IEEE Transactions on Geoscience and Remote Sensing, 1809, 60: 5100814. Doi:10.1109/TGRS.2021.3055061
[14]
郭帅, 陈婷, 王鹏辉, 等. 基于角度引导Transformer融合网络的多站协同目标识别方法[J]. 雷达学报, 2023, 12(3): 516-528. Doi:10.12000/JR23014
[15]
Xu E C, Xiong G, Zhang S N, et al. HRRP target recognition based on the dual-mode gram angle field features and the multi-level CNN[C]//2021 IEEE 6th International Conference on Signal and Image Processing (ICSIP). Nanjing, China. IEEE, 2021: 77-81. DOI: 10.1109/ICSIP52628.2021.9688620.
[16]
冯国徽. 基于卷积神经网络VGG模型的小规模图像分类[D]. 兰州: 兰州大学, 2018.
[17]
Chollet F. Xception: Deep learning with depthwise separable convolutions[C]//2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Honolulu, HI, USA. IEEE, 2017: 1800-1807. DOI: 10.1109/CVPR.2017.195.
[18]
Howard A, Sandler M, Chen B, et al. Searching for MobileNetV3[C]//2019 IEEE/CVF International Conference on Computer Vision (ICCV). Seoul, Korea (South). IEEE, 2019: 1314-1324. DOI: 10.1109/ICCV.2019.00140.
[19]
Zhang X Y, Zhou X Y, Lin M X, et al. ShuffleNet: An extremely efficient convolutional neural network for mobile devices[C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City, UT, USA. IEEE, 2018: 6848-6856. DOI: 10.1109/CVPR.2018.00716.
[20]
周文雪, 张华春. 一种面向SAR图像快速舰船检测的轻量化网络[J]. 中国科学院大学学报, 2024, 41(6): 776-785. Doi:10.7523/j.ucas.2023.017
[21]
Hou X Y, Ao W, Song Q, et al. FUSAR-ship: building a high-resolution SAR-AIS matchup dataset of Gaofen-3 for ship detection and recognition[J]. Science China Information Sciences, 2020, 63(4): 140303. Doi:10.1007/s11432-019-2772-5
[22]
Liu S Q, Zhan R H, Zhai Q L, et al. Multi-view radar target recognition based on Bayesian compressive sensing[J]. Applied Mechanics and Materials, 2014, 687/688/689/690/691: 3704-3708. Doi:10.4028/www.scientific.net/amm.687-691.3704
[23]
刘巧圆, 郭宝峰, 王刚, 等. 针对舰船目标高分辨距离像的特征选择方法[J]. 火力与指挥控制, 2017, 42(8): 82-86. Doi:10.3969/j.issn.1002-0640.2017.08.019
[24]
李月琴, 张红莉, 张维, 等. 基于改进CNN的HRRP目标识别方法[J]. 兵器装备工程学报, 2022, 43(8): 265-274. Doi:10.11809/bqzbgcxb2022.08.041
[25]
岳智彬, 卢建斌, 万露. 基于注意力机制的SRU模型雷达HRRP目标识别[J]. 舰船电子工程, 2023, 43(4): 44-48. Doi:10.3969/j.issn.1672-9730.2023.04.010