2. 中国科学院大学电子电气与通信工程学院, 北京 100049
2. School of Electronic, Electrical and Communication Engineering, University of Chinese Academy of Sciences, Beijing 100049, China
高分辨距离像(high resolution range profile, HRRP)是高分辨率雷达获取的目标散射点回波在雷达视线方向之和[1],它反映目标的散射体信息,包含如径向长度、结构起伏特征、散射点分布等丰富的信息。与传统的合成孔径雷达(synthetic aperture radar, SAR)与逆合成孔径雷达(inverse SAR, ISAR)相比,HRRP具有数据量小、处理速度快等优点,因此基于HRRP的目标识别技术具有重要的研究意义。
目前针对HRRP目标识别的研究主要分为传统方法和机器学习方法两大类。传统方法的研究以特征提取和分类器优化[2]为主。传统的数学特征和物理特征具有明确的物理意义,这些特征可解释性强,但是在实际使用过程中需要足够的先验知识,并且可能存在特征区分度低、泛用性差等问题。近年来,一些深度学习的方法在HRRP识别领域取得了比传统方法更好的性能[3],如循环神经网络[4]和卷积神经网络(convolutional neural network, CNN)[5]。循环神经网络通过循环机制利用HRRP的时序信息进行识别,但是序列的总体长度与输入序列各时刻的维度相互制约,不利于大型目标识别。CNN能够提取图像的深层特征,同时对图像的平移不敏感,而HRRP中的平移主要体现在距离方向,因此CNN在HRRP识别中有较强的适用性。文献[6]将CNN用于HRRP空中目标分类,证明CNN相比于传统方法的识别率更高,并且对姿态的敏感性和适应性更强。文献[7]使用格拉姆角场将HRRP数据变换到二维图像,利用CNN进行识别,但是忽略了原始HRRP中的结构特征。文献[8]使用CNN对多种目标进行分类,但其实验中只使用了仿真数据。文献[9]在CNN中堆叠自注意力机制以提升准确率,但网络结构的复杂性大幅增加。文献[10]使用多尺度卷积层融合提取目标HRRP的特征,但是只利用仿真数据进行实验在选定的角域内进行识别。Karabayir等[11]利用CNN对6类民船和军船分类,在他们自己数据集上的识别精度达到93.90 %。文献[12]为克服CNN不能有效利用HRRP中时间特征的局限性,提出一种二维递归神经网络来解决单个HRRP中的跨时间依赖关系从而提高识别性能。文献[13]研究了一种基于堆叠CNN-BiLSTM的HRRP自动目标识别方法。通过将CNN和长短期记忆模型组合,解决循环神经网络中容易出现的长期依赖问题,避免梯度消失,有效提高了HRRP目标的识别性能。郭帅等[14]利用Transformer对HRRP识别,但是Transformer需要大量的计算资源,训练和使用代价昂贵。实际中,待识别目标往往为非合作目标,目标的姿态变化较大,而HRRP易受到姿态敏感性影响,目标姿态角的变化会使HRRP变化剧烈。并且各类目标的数量差异较大,属于不平衡分类问题,不同种类的样本数量差异明显时,容易导致样本小的类别识别率低。目前的CNN主要通过增加网络的深度来提取深层的结构特征,却忽略了船只的浅层的整体特征,没有考虑到目标的姿态变化与HRRP中结构特征变化的联系。因此,本文提出基于双分支特征融合卷积神经网络(dual-branch feature fusion convolutional neural network, DBFFCNN)的HRRP目标识别方法,同时提取深层的细节特征和浅层的全局特征并融合,充分利用船只姿态变化与结构特征变化的相关性。
1 基于特征融合CNN的识别方法在训练CNN的过程中通常使用梯度下降法更新参数,对数据进行归一化可以使得网络的训练更加稳定,并且能使网络更快收敛。如果输入数据的尺度大,会导致网络的参数更新速度变快;如果输入数据的尺度过小,则会使参数更新缓慢,导致网络难以收敛,因此归一化在CNN的训练和收敛中起到了重要的作用。
HRRP具有幅度敏感性。由于雷达参数、目标位置、散射特性等因素的影响,同一雷达测量同一目标时,HRRP的幅度会存在差异。为使HRRP具有统一的尺度,需要对所有HRRP数据进行归一化处理。若Xi为HRRP实数数据的输入矩阵,则归一化后的数据X′i可表示为
| $ \boldsymbol{X}_i^{\prime}=\frac{\boldsymbol{X}_i-\min \left(\boldsymbol{X}_i\right)}{\max \left(\boldsymbol{X}_i\right)-\min \left(\boldsymbol{X}_i\right)} . $ | (1) |
本文提出的DBFFCNN包含3个主要结构:细节分支、全局分支和融合模块。模型的结构如图 1所示。
|
Download:
|
| 图 1 本文所提模型 Fig. 1 The proposed model | |
细节分支的作用为提取HRRP目标的结构细节特征,由于HRRP中目标的结构信息丰富,因此需要充分提取HRRP细节特征。细节分支参考传统CNN[15]识别方法和VGG[16]模型并做出改进优化。细节分支的具体结构如图 2所示。
|
Download:
|
| 图 2 细节分支模块 Fig. 2 Detail branch module | |
细节分支整体上使用卷积层堆叠组成,第1、2、3层中的卷积核个数为64,第4、5层中的卷积核个数为128,第6、7、8层中的卷积核个数为256。各卷积层中均使用批归一化,激活函数选择ReLU。为了得到足够多的细节信息,在每一层中的卷积核个数设置得较多,大小均为1×3,选择较小的卷积核是为了使提取出的特征更细致。相比于直接使用大卷积核,堆叠较小的卷积核能够降低卷积层的运算量。从整体上看,该分支的结构随着网络层数的增加,卷积层的通道数也在增加,使用较大的通道数可以增加网络对图像信息的感知能力,提高网络的表达能力。使用较深的网络层数能够提高网络的特征提取能力。这些设计思路与传统CNN的设计思路相符合。
需要注意的是,分支中第3和第6个卷积层的步长为2,其余的卷积层步长为1,并且全都使用相同的填充方式。使用2个步长为2的卷积层进行下采样,可保证输出的维度为输入特征维度的1/4。下采样层的功能不只是减少数据维度,也提取了更深层次的特征。降采样次数过多会使目标的信息丢失严重,对提取精细的特征造成影响。由于通道数较大,该分支中保证了提取出的空间特征信息足够多。由于该分支通道数较多,为节省计算资源,在该分支中不使用残差连接或其他分支结构。
1.2 全局分支HRRP受姿态敏感的影响严重,船只在数据中的尺度差异巨大,因此在全局分支中更关注船只的全局特征。全局分支通过一系列降采样和全局池化操作,逐步提取出更大范围的图像特征,以理解整个HRRP中的船只分布。全局分支提供了一种宏观视角,帮助理解船只在图像中的分布和整体姿态;而细节分支则提供了更具体的局部特征,有助于区分不同类型的船只和识别其细节特征。
全局分支的结构为头部的卷积层和池化层,以及5个全局分支模块。各个模块的结构相同。其中头部的卷积层中卷积核大小为1×5,通道数为64,步长为2。头部的池化层的池化大小为1×3,步长为2。该分支的结构参考了深度学习分类任务中主流的轻量化模型,例如xception[17]、mobilenet[18]和shufflenet[19]。全局分支模块如图 3所示。
|
Download:
|
| 图 3 全局分支模块 Fig. 3 Global branch module | |
图 3中,全局分支模块的结构包括1个主干和2个分支。主干由1×5卷积层、1×3分组卷积层和1×3卷积层组成,选择不同大小的卷积核是为了提取不同精度的特征。Shufflenet通过通道混洗的方式完成同一卷积层中不同通道间的信息交互,并利用深度可分离卷积中的点卷积改变特征图通道数。而在HRRP的特征图中,单个特征通常为单通道,不需要1×1的卷积与深度可分离卷积组合以降低计算量。因此本文在全局分支模块中将1×1卷积替换成1×5和1×3卷积,并用分组卷积完成通道间的信息交换。分组卷积的操作为:先将输入特征图分组,同时将其对应的卷积核也分组,然后对各个分组进行常规卷积。分组卷积的原理如图 4所示。
|
Download:
|
| 图 4 分组卷积 Fig. 4 Group convolution | |
分组处理输入特征图,可以将计算分散到不同的卷积核上,与普通卷积相比减少了计算量。组数为g时,分组后的参数量降低到原来的1/g。由于各组使用独立的卷积核进行计算,分组卷积可以减少计算量和模型参数的数量。由于每个分组都有独立的卷积核,分组卷积可以引入分组之间的特征交互,增加模型的表达能力,同时降低复杂度,提高训练和推理效率。
左侧分支为残差连接,残差连接能够融合不同层的输出,提高了特征表达能力。右侧分支为全局池化层和2个全连接层组成的通道注意力机制。全局池化层对各通道计算全局平均值,第1个全连接层将输入的全局平均值压缩,第2个全连接层将数据的维度拓展并与主干的输出相乘,实现通道上的加权。大量研究表明注意力机制可以有效地改善模型的性能[20]。通道注意力机制将特征图按通道维度加权,增加特征图中重要通道的权重,降低其他通道的权重。与其他注意力机制相比,通道注意力机制的参数量少、计算量小,高效地实现了跨通道的信息交互,让模型自主对各层特征图进行调整,从而提升准确率。
表 1为各模块的具体参数。c为卷积层的通道数,随着模块的增加,通道数增加。s为分组卷积的步长。全局分支模块第2和第4个为降采样模块,设置卷积步长设置为2,每通过一个下采样模块,特征图大小变为原来的1/2。其余模块的分组卷积步长设置为1,不改变特征图大小。d1,d2分别为全连接层中的神经单元个数,通常第1个全连接层的神经单元数为输入的1/16,即与全局平均池化层相连接的卷积层通道数的1/16,第2个全连接层的神经单元数为第2个神经单元数的16倍,并且和与之相乘的特征图的通道数相同。具体参数如表 1所示。
|
|
表 1 全局分支参数 Table 1 Parameters of global branch |
融合模块将细节分支和全局分支提取的特征进行融合处理。CNN中合并2种类型的特征主要为求和与连接。然而,这2个分支的输出都具有不同级别的特征表示。细节分支特征提取的是船只的深层结构特征,而全局分支提取的是整体船只姿态信息。因此,简单的组合会忽略这2种类型信息的多样性,导致性能较差,优化困难。并且由于各分支提取的特征的维度不同,因此,简单的加和、乘法、拼接操作不利于提升识别的准确率。
本文根据HRRP数据经过各分支后特征维度的变化,设计了特征融合模块。由于在细节分支中下采样次数较少,该分支输出的特征图相比全局分支输出的特征图大,因此在融合过程中加入了下采样和上采样,分别改变细节分支和全局分支的输出特征图大小。具体的融合模块结构如图 5所示。
|
Download:
|
| 图 5 融合模块 Fig. 5 Fusion module | |
在机器学习中,常使用Dropout抑制过拟合现象。Dropout通过随机选择并停用部分神经单元,达到提升模型泛化性能的目的,降低模型对某些特定特征的过度依赖。AlphaDropout能够在抑制过拟合的同时,保持数据自身的均值和方差。SELU激活函数保证了输出是0均值和单位标准差,因此AlphaDropout和SELU激活函数通常一起使用。SELU函数中有2个超参数:λ和α,均由推导证明得到,而非通过训练获得,其表达式为
| $ \operatorname{SELU}(z)= \begin{cases}\lambda z, & z>0, \\ \lambda \alpha(\exp (z)-1), & z \leqslant 0.\end{cases} $ | (2) |
本文使用FUSARShip数据集[21],其中包含15个主要船舶类别,数据集内图像为512像素×512像素的切片,数据切片来源于原始高分3号遥感图像,分辨率为1.1 m×1.7 m,极化模式包括HH和VV。选取其中100 m以上的散装货船、货轮、集装箱船和油轮4种大型船只。对数据中原始的高分辨SAR图像进行等角度间隔的旋转,角度间隔为3°,获得多个船只姿态的高分辨SAR图像。数据集中的SAR图像为实数数据,将SAR图像按方位向做平均即可转换成HRRP,因此各个类型船只的姿态角变化较为连续。HRRP数据总共13 560个HRRP样本。
为验证DBFFCNN在姿态角不完备的情况下克服姿态敏感性的能力,使用留出法从总数据中随机抽取出训练集样本10 240个,剩余3 320个作为测试集样本,使训练集和测试集的姿态角不重合。表 2给出了该数据集的组成。从表中可以看出各类船只的样本数量不完全相同,并且存在较大差异,可用于验证各类识别方法对不平衡样本问题的适用性。具体数据如表 2所示。
|
|
表 2 实验数据 Table 2 Experimental data |
使用整体准确率(overall accuracy, OA)和F1分数(F1-score, F1)评估各类方法的识别效果,其定义为
| $ \mathrm{OA}=\sum\limits_{i=1}^C N_{i i} / N, $ | (3) |
| $ F_1=\frac{1}{C} \sum\limits_{i=1}^C \frac{2 \times P_{r_{-} i} \times R_{r_{-} i}}{P_{r_{-} i}+R_{r_{-} i}} . $ | (4) |
其中: C为总类别,N表示各类别的数量,Pr_i表示各类别的精确率,Rr_i表示召回率。整体准确率为所有类别上的总正确率,反映模型在任务中的整体效果。F1分数的范围为0~1,既包含精确度的信息,也包含召回率的信息。F1分数能反映各类方法在数据不平衡问题下的表现。
2.3 对比实验为验证所提算法的有效性,引入9种HRRP识别模型对4种类型船只的目标分类测试进行对比,实验结果如表 3所示。方法1~9分别为贝叶斯压缩感知(Bayesian compressive sensing,BCS)[22]、互补特征提取[23]、支持向量机、最近邻、传统CNN[15]、长短期记忆网络(long short term memory, LSTM)[12]、CNN结合双向LSTM(convolutional neural network bi-directional long short term memory, CNN-BiLSTM)[12]、CNN结合轻量级梯度提升机算法(convolutional neural network-light gradient boosting machine, CNN-LGBM)[24]、简单循环神经单元结合注意力网络(simple recurrent units-attention, SRU-Attention)[25],方法10为本文算法。CNN中激活函数采用ReLU激活函数,batch大小设置为128,迭代次数300次,使用自适应动量优化器和交叉熵损失函数。由表 3结果可以看出,所提算法在HRRP舰船目标分类任务上获得了更优的性能。具体的结果如表 3所示。
|
|
表 3 4类船只识别结果 Table 3 Recognition results of four types of ships |
从表 3的结果来看,方法3在集装箱船的识别率最高,而其他船只识别率的差异较大,说明支持向量机在样本不均衡时性能较差。最近邻和传统CNN方法在各类目标的识别率上较为均衡,但整体识别性能并不突出。LSTM、CNN-BiLSTM以及SRU-Attention的方法虽然整体识别率较高,但在集装箱船上的识别率较差,且该类船只平均长度最长,说明基于序列的方法识别较大的目标时仍有一定的局限性。CNN-LGBM方法将常用的Softmax分类器替换为LGBM,虽然总识别率提升,但是集装箱船的识别率却比传统CNN更低,说明该分类器仍存在局限性。本文方法在散装货船、货轮、油轮这3类船只的识别性能上达到最优,并且整体准确率和F1分数最高,说明本文方法对比目前的主流方法占据一定优势。
为进一步验证DBFFCNN对目标姿态敏感问题的适用性,从上述实验数据中,抽取出雷达视线与船体主轴夹角60°~120°的数据进行实验,方法与表 3方法相同。当夹角在60°~120°之间时,船体在距离向的投影小于船身长度的1/2,此时的船身在HRRP上重叠严重,损失了较多的结构信息。该部分数据设置和实验结果分别如表 4、表 5所示。
|
|
表 4 特殊角度下的实验数据 Table 4 Experimental data in special angles |
|
|
表 5 特殊角度下的结果 Table 5 Results in special angles |
由表 5结果可见,各方法对应各类别船只的识别准确率均降低,说明在雷达视线与船只夹角较大时,HRRP损失较多的信息导致识别率下降,其中货轮和集装箱船的识别精度下降明显。
2.4 收敛性验证图 6(a)和6(b)分别展示了DBFFCNN和其他深度学习算法在训练数据上的损失函数和准确率的变化曲线,具体变化如图 6所示。
|
Download:
|
| 图 6 损失函数与准确率变化 Fig. 6 Changes in loss function and accuracy | |
从图 6可以看出,本文DBFFCNN算法的损失函数值比其他方法下降更快,当训练次数在35次时,DBFFCNN的损失函数曲线已经稳定收敛,而其他方法还需要多训练30次左右才收敛稳定。同时,DBFFCNN算法在训练集上的准确率也比其他方法提升更快,对数据的拟合效果更好,说明本文算法可以加速网络收敛,解决训练过程中损失函数收敛过慢的问题。
2.5 复杂度分析本节从参数量和推理时间两方面分析算法的复杂度。参数量为模型包含的参数的数量,用于衡量模型的大小。推理时间是网络处理单个数据所需时间,时间越短,速度越快。深度学习的方法受到硬件水平和框架的影响,为了能够从参数量的角度统一衡量复杂度,对比方法选择传统CNN、LSTM、CNN-BiLSTM、CNN-LGBM和SRU-Attention这几类深度学习方法。结果如表 6所示。
|
|
表 6 复杂度分析 Table 6 Analysis of complexity |
从表 6可以看出,LSTM的每个时间步长都能独立计算,因此其参数量较多但是推理时间最快。本文提出的CNN参数量明显少于其他方法,在内存中占据更少的存储空间;而推理时间与参数量更多的传统CNN相近,是因为DBFFCNN中的分支数相对较多,当模型的分支较多时,需要等待所有支路计算完后才能进行下一步的计算,即需要等待同步时间。
2.6 消融实验为探究各模块的合理性及其对识别性能的影响,进行了消融实验,实验结果如表 7所示。
|
|
表 7 消融实验结果 Table 7 Results of ablation experiment |
从表 7实验结果中,可以看出各模块对于性能的提升:引入全局分支后,算法性能得到了最大程度的提升,说明该分支在模型中的有效性和必要性;引入特征融合模块后,准确率和F1分数均提升0.15个百分比,说明特征融合方法的合理性;引入AlphaDropout后整体准确率提升0.3个百分比,同时F1分数提升0.11个百分比,缓解了舰船目标分类任务中的过拟合问题。本节对模型中各个模块做了更细致的分析,分别为:增加或删减细节分支层数、替换全局分支中分组卷积为普通卷积、剪去通道注意力机制、Dropout替换。结果如表 8所示。
|
|
表 8 细节分支的影响 Table 8 Influence of detail branch |
表 8表明,当细节分支层数从8减少到6、4时,F1分数下降,整体准确率先增加后下降,说明该分支层数较少时,提取的特征会偏向于训练样本较多的类别;当层数从8增加到10、12时,整体准确率降低,F1分数略有增加而后减少,并且由于细节分支的通道数较多,会极大地增加网络的计算量。
表 9给出了分组卷积和SE(squeeze-and-excitation)注意力机制对识别的影响。将分组卷积替换为普通卷积时,货船和集装箱船的识别率提升约2个百分点,然而散装货船的识别率降低约2.7个百分点,油轮的识别率降低3个百分点,整体识别率和F1分数降低;当剪去SE注意力机制时,散装货船和货轮的识别准确率均下降,且整体准确率和F1降低1.1个百分点,F1分数降低超过2个百分点,说明注意力机制对特征的筛选作用。具体结果如表 9所示。
|
|
表 9 全局分支的影响 Table 9 Influence of global branch |
表 10给出了不同的融合方法对识别结果的影响,将原始融合模块中的升采样和降采样部分拆分开分别进行测试,识别准确率和F1分数均低于同时采用升采样和降采样的融合方法的识别效果。具体结果如表 10所示。
|
|
表 10 融合模块的影响 Table 10 Influence of fusion module |
表 11给出了Dropout对识别性能的影响,使用普通的Dropout时,散装货船、集装箱船和邮轮的识别精度略微降低,说明了AlphaDropout对数据的标准化进一步抑制了网络的过拟合。具体结果如表 11所示。
|
|
表 11 Dropout的影响 Table 11 Influence of dropout |
根据以上实验,本文的DBFFCNN不仅提取了HRRP的高分辨率细节特征,并且引入了低分辨率的全局信息,有效提高了模型的识别能力。在训练数据不平衡的情况下,取得了优良的识别效果,且在姿态角不完备时仍能保持较高的识别率,说明该方法在一定程度上缓解了姿态敏感性的影响。
3 结论本文提出一种基于双分支特征融合CNN的HRRP船只目标识别方法。该方法提取HRRP不同层次的特征并进行融合,有效地提高了对目标特征的描述能力和对舰船目标的识别能力。实验结果表明,与目前主流的HRRP目标识别方法相比,该方法取得了更好的识别性能。
| [1] |
Li L, Liu Z, Li T. Radar high-resolution range profile feature extraction method based on multiple kernel projection subspace fusion[J]. IET Radar, Sonar & Navigation, 2018, 12(4): 417-425. Doi:10.1049/iet-rsn.2017.0391 |
| [2] |
韩磊, 姚璐. HRRP自动目标识别方法综述[J]. 北京理工大学学报, 2020, 40(4): 351-361, 381. Doi:10.15918/j.tbit1001-0645.2019.057 |
| [3] |
Bouarara H A. Recurrent neural network (RNN) to analyse mental behaviour in social media[J]. International Journal of Software Science and Computational Intelligence, 2021, 13(3): 1-11. Doi:10.4018/ijssci.2021070101 |
| [4] |
Gruber N. Detecting dynamics of action in text with a recurrent neural network[J]. Neural Computing and Applications, 2021, 33(22): 15709-15718. Doi:10.1007/s00521-021-06190-5 |
| [5] |
Li J Q, Li S J, Liu Q, et al. A novel algorithm for HRRP target recognition based on CNN[C]//International Conference on Internet of Things as a Service. Cham: Springer, 2020: 397-404.10.1007/978-3-030-44751-9_33.
|
| [6] |
王容川, 庄志洪, 王宏波, 等. 基于卷积神经网络的雷达目标HRRP分类识别方法[J]. 现代雷达, 2019, 41(5): 33-38. Doi:10.16592/j.cnki.1004-7859.2019.05.007 |
| [7] |
Lin C L, Chen T P, Fan K C, et al. Radar high-resolution range profile ship recognition using two-channel convolutional neural networks concatenated with bidirectional long short-term memory[J]. Remote Sensing, 2021, 13(7): 1259. Doi:10.3390/rs13071259 |
| [8] |
Lundén J, Koivunen V. Deep learning for HRRP-based target recognition in multistatic radar systems[C]//2016 IEEE Radar Conference (RadarConf). Philadelphia, PA, USA. IEEE, 2016: 1-6. DOI: 10.1109/RADAR.2016.7485271.
|
| [9] |
Diao Y J, Liu S W, Gao X Z, et al. CNN based on multiscale window self-attention mechanism for radar HRRP target recognition[C]//2022 7th International Conference on Signal and Image Processing (ICSIP). Suzhou, China. IEEE, 2022: 281-285. DOI: 10.1109/ICSIP55141.2022.9887058.
|
| [10] |
郭晨, 简涛, 徐从安, 等. 基于深度多尺度一维卷积神经网络的雷达舰船目标识别[J]. 电子与信息学报, 2019, 41(6): 1302-1309. Doi:10.11999/JEIT180677 |
| [11] |
Karabayır O, Yücedağ O M, Kartal M Z, et al. Convolutional neural networks-based ship target recognition using high resolution range profiles[C]//2017 18th International Radar Symposium (IRS). Prague, Czech Republic. IEEE, 2017: 1-9. DOI: 10.23919/IRS.2017.8008207.
|
| [12] |
Liu J Q, Chen B, Chen W C, et al. Radar HRRP target recognition with target aware two-dimensional recurrent neural network[C]//2019 IEEE International Conference on Signal Processing, Communications and Computing (ICSPCC). Dalian, China. IEEE, 2019: 1-6. DOI: 10.1109/ICSPCC46631.2019.8960736.
|
| [13] |
Pan M, Liu A L, Yu Y Z, et al. Radar HRRP target recognition model based on a stacked CNN-Bi-RNN with attention mechanism[J]. IEEE Transactions on Geoscience and Remote Sensing, 1809, 60: 5100814. Doi:10.1109/TGRS.2021.3055061 |
| [14] |
郭帅, 陈婷, 王鹏辉, 等. 基于角度引导Transformer融合网络的多站协同目标识别方法[J]. 雷达学报, 2023, 12(3): 516-528. Doi:10.12000/JR23014 |
| [15] |
Xu E C, Xiong G, Zhang S N, et al. HRRP target recognition based on the dual-mode gram angle field features and the multi-level CNN[C]//2021 IEEE 6th International Conference on Signal and Image Processing (ICSIP). Nanjing, China. IEEE, 2021: 77-81. DOI: 10.1109/ICSIP52628.2021.9688620.
|
| [16] |
冯国徽. 基于卷积神经网络VGG模型的小规模图像分类[D]. 兰州: 兰州大学, 2018.
|
| [17] |
Chollet F. Xception: Deep learning with depthwise separable convolutions[C]//2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Honolulu, HI, USA. IEEE, 2017: 1800-1807. DOI: 10.1109/CVPR.2017.195.
|
| [18] |
Howard A, Sandler M, Chen B, et al. Searching for MobileNetV3[C]//2019 IEEE/CVF International Conference on Computer Vision (ICCV). Seoul, Korea (South). IEEE, 2019: 1314-1324. DOI: 10.1109/ICCV.2019.00140.
|
| [19] |
Zhang X Y, Zhou X Y, Lin M X, et al. ShuffleNet: An extremely efficient convolutional neural network for mobile devices[C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City, UT, USA. IEEE, 2018: 6848-6856. DOI: 10.1109/CVPR.2018.00716.
|
| [20] |
周文雪, 张华春. 一种面向SAR图像快速舰船检测的轻量化网络[J]. 中国科学院大学学报, 2024, 41(6): 776-785. Doi:10.7523/j.ucas.2023.017 |
| [21] |
Hou X Y, Ao W, Song Q, et al. FUSAR-ship: building a high-resolution SAR-AIS matchup dataset of Gaofen-3 for ship detection and recognition[J]. Science China Information Sciences, 2020, 63(4): 140303. Doi:10.1007/s11432-019-2772-5 |
| [22] |
Liu S Q, Zhan R H, Zhai Q L, et al. Multi-view radar target recognition based on Bayesian compressive sensing[J]. Applied Mechanics and Materials, 2014, 687/688/689/690/691: 3704-3708. Doi:10.4028/www.scientific.net/amm.687-691.3704 |
| [23] |
刘巧圆, 郭宝峰, 王刚, 等. 针对舰船目标高分辨距离像的特征选择方法[J]. 火力与指挥控制, 2017, 42(8): 82-86. Doi:10.3969/j.issn.1002-0640.2017.08.019 |
| [24] |
李月琴, 张红莉, 张维, 等. 基于改进CNN的HRRP目标识别方法[J]. 兵器装备工程学报, 2022, 43(8): 265-274. Doi:10.11809/bqzbgcxb2022.08.041 |
| [25] |
岳智彬, 卢建斌, 万露. 基于注意力机制的SRU模型雷达HRRP目标识别[J]. 舰船电子工程, 2023, 43(4): 44-48. Doi:10.3969/j.issn.1672-9730.2023.04.010 |
2025, Vol. 42 


