Modulation signal recognition based on evolutionary long short-term memory neural network under impulse noise
-
摘要: 为了解决冲击噪声下长短时记忆(long short term memory,LSTM)神经网络调制信号识别方法抗冲击噪声能力弱和超参数难以确定的问题,本文提出了一种演化长短时记忆神经网络的调制识别方法。利用基于短时傅里叶变换的卷积神经网络(convolution neural network,CNN)去噪模型对数据集去噪;结合量子计算机制和旗鱼优化器(sailfish optimizer, SFO)设计了量子旗鱼算法(quantum sailfish algorithm, QSFA)去演化LSTM神经网络以获得最优的超参数;使用演化长短时记忆神经网络作为分类器进行自动调制信号识别。仿真结果表明,采用所设计的CNN去噪和演化长短时记忆神经网络模型,识别准确率有了大幅度的提高。量子旗鱼算法演化LSTM神经网络模型降低了传统LSTM神经网络容易陷于局部极小值或者过拟合的概率,当混合信噪比为0 dB,所提方法对11种调制信号的平均识别准确率达到90%以上。Abstract: In order to solve the problems of weak resistance against impulsve noise and difficulty in determining hyperparameters of the modulation signal recognition method with long short-term memory (LSTM) neural network under impulse noise, this paper presents a modulation recognition method based on evolutionary LSTM neural network. The convolution neural network (CNN) denoising model based on short-time Fourier transform is used to denoise the data set. Then, combined with the quantum computation mechanism and sailfish optimizer (SFO), the quantum sailfish algorithm (QSFA) is designed to evolve LSTM neural network to obtain the optimal hyper-parameters. An evolutionary LSTM neural network is used as a classifier for automatic modulating signal recognition. Simulation results show that the recognition accuracy is greatly improved by using the designed CNN denoising and evolutionary LSTM neural network model. Moreover, the evolutionary LSTM neural network model based on quantum sailfish algorithm reduces the probability that traditional LSTM neural network is easy to fall into local minimum or over fitting. When the mixed signal-to-noise ratio (MSNR) is 0 dB, the average recognition accuracy of the proposed method for 11 modulated signals is more than 90%.
-
调制信号识别的目的是在短时间内以尽可能高的识别准确率识别接收到的含噪信号调制类型,因此调制识别是信号接收和解调之间的关键步骤[1-2]。在军事应用场景中,如电子战、监视和威胁分析等都需要识别拦截信号的调制方式以达到恢复拦截信号的目的。调制识别在民用场景中也扮演着重要的角色,如在认知无线电[3]中发射机根据信道环境动态选择传输信号的调制方式,在接收端需要通过识别调制方式来恢复接收到的信号。
在传统的调制识别方法中高斯白噪声被广泛应用于模拟通信中的加性噪声,这在大多数情况下是合理的。但是高斯白噪声在应用于无线通信系统和移动卫星通信时是一个有限的模型,因为此类系统容易受到非高斯干扰和冲击噪声的影响[4]。并且在现代战争中军用电子侦察设备所面临的通信信道是非常复杂的,其信道中包含的很多噪声,其概率密度函数都为非高斯分布,如雷达杂波、水下声波信号和人造信号等[5],同高斯噪声相比较,这类干扰噪声具有相同特性,包括较厚的拖尾特性和明显的尖峰脉冲特性,常称为冲击噪声,通常使用Alpha稳定分布进行模型的建立[6]。
随着人工智能技术的飞速发展,机器学习和深度学习算法在通信信号调制识别领域中的应用也越来越广泛,但是这些方法的背景噪声为高斯噪声[7-9]。近年来出现了一些在非高斯噪声环境中数字通信信号调制识别的新方法,对非高斯噪声的处理主要有2种方法,一种是提取分数低阶矩相关特征,Camara等[10]分析了调制信号的分数低阶循环自相关函数和循环相关熵函数在冲击噪声环境下的特性,并且基于这两种循环特征设计了一种鲁棒性的调制识别结构,该方法在低混合信噪比下性能较差。另一种方法是对含冲击噪声信号进行去噪预处理,Gao等[11]通过加权Myriad滤波器对含有冲击噪声的信号进行滤波处理,抑制冲击噪声,然后提取瞬时幅度特征和高阶累积量用于训练量子象群优化算法演化的反向传播(back propagation,BP) 神经网络分类模型,该方法中加权Myriad滤波器需要对参数进行估计,并且需要手动提取并选择特征,复杂度较高。
然而人工神经网络存在模型结构、关键超参数等难以确定的缺陷,因此如何优化神经网络成为当前研究的重点,一些科研人员发现群智能优化算法在优化神经网络方面比传统方法更突出。近年来,将量子计算机制同群智能优化算法相结合所得到的量子群智能算法在演化神经网络方面也有很多应用,在2013年,Zhang等[12]提出了基于量子粒子群优化算法演化神经网络的交通预测模型,同传统神经网络相比有更好的精度和适应性。2020年,Deng等[13]提出了量子差分演化算法用于演化深度信念神经网络的结构和参数,减小了人工经验选择结构和参数的影响,有效地提升了分类正确率,满足了实际需求。
本文贡献如下:
1) 针对冲击噪声环境下的调制信号识别难题,提出了一种演化长短时记忆神经网络的调制识别方法。该方法基于短时傅里叶变换的卷积神经网络和量子旗鱼算法演化长短时记忆(long short-term memory,LSTM)神经网络获得一种冲击噪声环境下的高准确率调制识别新方法。
2)针对冲击噪声下的调制信号识别的去冲击难题,本文通过卷积神经网络学习干净信号和含冲击噪声信号的短时傅里叶变换幅值频谱之间的映射关系,达到去冲击噪声的目的。
3)为了解决传统LSTM神经网络依赖人工选择关键超参数的问题,设计了量子旗鱼算法演化LSTM神经网络以获得最优的超参数,降低传统LSTM神经网络容易陷于局部极小值或者过拟合的概率,获得较优秀的性能。所提出的量子旗鱼算法和量子旗鱼演化LSTM神经网络都有优秀的性能并都能扩展应用到其他工程问题和理论难题的解决。
1. 通信信号模型和Alpha稳定分布模型
1.1 通信信号模型
数字调制通信信号是通过基带信号修改和控制部分载波信号的参数,这些参数根据调制信号本身的特定规律来改变,通过基带信号控制改变载波的幅度、频率和相位等特性,从而产生不同的数字调制通信信号,当前数字调制类型主要有幅移键控(amplitude shift keying, ASK)、频移键控(frequency shift keying, FSK)、相移键控(phase shift keying, PSK)和正交振幅调制(quadrature amplitude modulation, QAM)等。
模拟数字混合调制信号是先对数字信息进行数字调制,然后用调制后的信号再对原模拟系统的载波进行模拟调制[14]。混合调制有2部分:内部调制和外部调制。内部调制是指数字基带信号通过传统的数字调制如上面提到的ASK、FSK和PSK等,使用的载波被称为副载波。外部调制是指对原始模拟通信系统进行第2次调制,所用载波被称为主载波。模拟和数字混合的幅度调制(amplitude modulation,AM),调制信号可以表示为
$$ {S_{{\text{AMh}}}}(t) = \left[ {1 + u(t)} \right]\cos (2{\text{π }} {f_0}t) $$ (1) 式中:
$ u(t) $ 为数字信号经过副载波调制后的已调信号,$ {f_0} $ 为主载波的频率。1.2 Alpha稳定分布模型
虽然高斯分布是最常见的噪声分布,但是在实际应用中还常遇到许多具有显著尖峰脉冲特性的情况,这种特性的噪声被称为冲击噪声,常用Alpha稳定分布模型进行建模。已有的基于高斯假设设计的信号处理系统在这种冲击噪声环境下,其性能常常显著退化,甚至不能正常使用。
Alpha稳定分布用以下特征函数来定义[15]:
$$ \varphi (t) = \left\{ \begin{split} &\exp \left\{ {{\text{j}}\mu t - \gamma {{\left| t \right|}^\alpha }\left[ {1 + {\text{j}}\beta {\text{sgn}}(t)\tan \left( {\frac{{\alpha {\text{π }}}}{2}} \right)} \right]} \right\},\; \alpha \ne 1 \\ &\exp \left\{ {{\text{j}}\mu t - \gamma {{\left| t \right|}^\alpha }\left[ {1 + {\text{j}}\beta {\text{sgn}}(t)\frac{2}{{\text{π }}}\log \left| t \right|} \right]} \right\},\; \alpha = 1 \end{split} \right. $$ (2) 式中:
$ 0 < \alpha \leqslant 2 $ 为特征指数,它和Alpha稳定分布的冲击性有关,决定概率密度函数的拖尾厚度,$ \alpha $ 越小拖尾越厚重,冲击性越强;$ - 1 < \beta \leqslant 1 $ 是对称参数,表示Alpha稳定分布的对称程度;$ \gamma \geqslant 0 $ 为尺度参数,其反映出Alpha稳定分布偏离均值的离散程度;$ \mu $ 为位置参数,当$ 0 < \alpha \leqslant 1 $ 时$ \mu $ 为中值,当$ 1 < \alpha \leqslant 2 $ 时$ \mu $ 为均值。在冲击噪声环境中通常采用混合信噪比来衡量信号与噪声的强度,可以表示为
$$ {{M_{\text {SNR}}}} = 10\lg \left( {\sigma _s^2/\gamma } \right) $$ (3) 式中
$ \sigma _s^2 $ 为信号的方差。2. 基于STFT的CNN去噪模型
随着深度学习方法在图像和语音等领域的蓬勃发展,近年来研究者们将深度学习方法应用于信号增强研究,这些研究利用信号短时傅里叶变换 (short-time Fourier transform,STFT)幅值特征训练深度学习模型进行信号的去噪声与重构,并取得了较好的结果[16]。李悦等[17]提出了一种基于深度学习的冲击噪声去噪方法,训练卷积神经网络学习干净信号和含噪信号的短时傅里叶变换频谱的映射达到去噪的目的。
$ {\text{STFT}} $ 认为非平稳时变信号是一系列短期平稳信号的叠加,通过窗口处理截取时域信息,窗口连续滑动,一维时域信号映射到二维时域平面中,信号$ {\text{STFT}} $ 表示为$$ {\text{STFT}}(\omega ,\tau ) = \int_{ - \infty }^\infty {s\left( t \right)} g\left( {t - \tau } \right){{\text{e}}^{ - {\text{j}}\omega t}}{\text{d}}t $$ (4) 式中:
$ s(t) $ 为待处理信号,$ g(t) $ 为窗函数。接收端接收到的信号为干净的调制信号与冲击噪声之和,可以表示为
$$ x\left( t \right) = s\left( t \right) + n\left( t \right) $$ (5) 已知STFT 为一种线性时频分析方法,因此对接收信号进行时频分析可以表示为
$$ X(m,k) = S(m,k) + N(m,k) $$ (6) 式中:
$ X(m,k) $ 、$ S(m,k) $ 和$ N(m,k) $ 分别为被噪声污染的接收调制信号、干净调制信号和冲击噪声的STFT复数谱;$ m $ 和$ k $ 分别为时间帧和频率帧的序号。建立卷积神经网络完成接收调制信号STFT谱
$ X(m,k) $ 与干净调制信号STFT谱$ S(m,k) $ 的映射F,达到去噪声目的。输入预测变量信号和网络目标信号分别接收的含噪声调制信号和干净调制信号的幅值频谱,网络的目标是学习映射F使网络输出含噪声信号的幅值频谱,回归网络使用预测变量输入来最小化其输出和输入目标之间的均方误差,因此去噪声网络的损失函数可以表示为$$ {l_{\text{oss}}} = \dfrac{1}{B}\displaystyle\sum\limits_{b = 1}^B {{{\sum\limits_{m = 1}^M {\sum\limits_{k = 1}^K {\bigg[ {S\left( {m,k} \right) - F\left( {X\left( {m,k} \right)} \right)} \bigg]^2} } }}} $$ (7) 式中:
$ B $ 表示批量大小,$ M $ 和$ K $ 分别表示STFT时间帧和频点的总数。最后使用网络输出的幅值频谱和接收到的含噪调制信号的相位将去噪后的信号转换回时域信号。本文中的冲击噪声去噪声网络采用全卷积的网络结构,参数设置如表1所示,结构图如图1所示。使用STFT将信号转换为时频域,使用的窗口长度为256个样本、重叠率为75%并使用Hamming窗。通过丢弃对应于负频率的频率样本,可以将频谱向量的长度减小为129。定义由16个卷积层组成的全卷积网络,第1层卷积核大小是9×8,有18个卷积核,第2~13卷积层是重复4次的含3层的组,卷积核宽度分别为5、9和9,卷积核数量都为64,最后一个卷积层的卷积核宽度是129且只有1个卷积核,在此网络中,卷积仅在频率维度方向上执行,并且除第1层外的所有层,沿时间维度的卷积核宽度设置为1,卷积层后都经过批量归一化层和ReLU激活函数层,最后通过一个regression层输出。
表 1 去噪声卷积神经网络参数设置Table 1 Parameters setting of denoising convolutional neural network卷积层 卷积核
数目卷积核
大小步长 归一
化层激活层 Conv1 18 $ 9 \times 8 $ $ 1 \times 1 $ BN ReLU Conv2、5、8、11 64 $ 5 \times 1 $ $ 1 \times 1 $ BN ReLU Conv3、6、9、12 64 $ 9 \times 1 $ $ 1 \times 1 $ BN ReLU Conv4、7、10、13 64 $ 9 \times 1 $ $ 1 \times 1 $ BN ReLU Conv14 30 $ 5 \times 1 $ $ 1 \times 1 $ BN ReLU Conv15 8 $ 9 \times 1 $ $ 1 \times 1 $ BN ReLU Conv16 1 $ 129 \times 1 $ $ 1 \times 1 $ — — 3. 量子旗鱼算法演化LSTM神经网络
3.1 量子旗鱼优化算法
旗鱼优化器是由Shadravan等[18]提出,由旗鱼群攻击选择策略启发而形成的基于种群的元启发式算法。旗鱼优化器的原理简单,需要调整的参数较少,并且容易实现。旗鱼是种群捕猎,它们会向海面驱赶猎物,通过不断的攻击猎物来影响猎物群的机动性和前进方向,通常猎物为沙丁鱼群。当沙丁鱼受到旗鱼攻击并受伤脱离沙丁鱼群时,会很快被旗鱼捕食。并且旗鱼可以通过改变自身颜色来同其他旗鱼交流,避免受到同伴的伤害。旗鱼优化算法的原理简单,需要调整的参数较少,并且容易实现。其生物机制可以简化如下:
1) 旗鱼是种群捕猎,它们会驱赶更小的鱼,例如沙丁鱼朝海面前进。
2) 沙丁鱼的机动性和加速度会受到旗鱼的攻击而改变。
3) 由于沙丁鱼的速度没有旗鱼快,因此不能躲避旗鱼的攻击,受伤的沙丁鱼将从沙丁鱼群分离出来,并且不能跟随鱼群移动。
但是基础的旗鱼优化器(sailfish optimizer, SFO)容易陷入局部最优值,导致不能找到最优解。并且对于复杂的连续优化问题,收敛精度不够。因此,本文提出一种新的量子旗鱼算法去解决这个问题。量子旗鱼算法(quantum sailfish algorithm, QSFA)是结合SFO和量子计算的量子演化理论[19]优势。在QSFA中,量子机制设计了一种全新的旗鱼和沙丁鱼位置更新方式,能够改进SFO的全局搜索能力。
QSFA通过旗鱼群和沙丁鱼群的量子态进行演化。一个旗鱼种群包含
$ {N_q} $ 条旗鱼,每条旗鱼都有自己的量子位置和相应的位置。因此,在对一个$ d $ 维问题求解时,定义第$ i $ 条旗鱼的量子位置为${{{{\boldsymbol{q}}}}_i} = [{q_{i1}}\quad{q_{i2}}\quad\cdots\quad{q_{id}}]$ ,其中$0 < {q_{ij}} < 1$ ,$ i = 1,2,\cdots,{N_q} $ ,$ j = 1,2,\cdots,d $ 。一个沙丁鱼群,初始种群规模为$ N_s^0 = {{{N_q}} \mathord{\left/ {\vphantom {{{N_q}} p}} \right. } p} $ ,其中$ p $ 为初始旗鱼种群占沙丁鱼群的比例,定义第$ k $ 条沙丁鱼的量子位置为$$ {{{{\boldsymbol{s}}}}_k} = [{s_{k1}}\quad{s_{k2}}\quad\cdots\quad s{ _{kd}}] $$ 其中
$0 < {s_{kj}} < 1$ ,$ k = 1,2,\cdots,N_s^0 $ ,$ j = 1,2,\cdots,d $ 。将其映射为求解空间中的位置,映射关系定义为
$$ {{{\hat {\boldsymbol{q}}}}_i} = {{{{\boldsymbol{x}}}}_{\min }} + {{{{\boldsymbol{q}}}}_i} \odot ({{{{\boldsymbol{x}}}}_{\max }} - {{{{\boldsymbol{x}}}}_{\min }}) $$ (8) $$ {{{\hat {\boldsymbol{s}}}}_i} = {{{{\boldsymbol{x}}}}_{\min }} + {{{{\boldsymbol{s}}}}_i} \odot ({{{{\boldsymbol{x}}}}_{\max }} - {{{{\boldsymbol{x}}}}_{\min }}) $$ (9) 式中:
${{{{\boldsymbol{x}}}}_{\min }} = [{x_{\min ,1}}\quad{x_{\min ,2}}\quad\cdots\quad{x_{\min ,d}}]$ 为求解问题的下边界,${{{{\boldsymbol{x}}}}_{\max }} = [{x_{\max ,1}}\quad{x_{\max ,2}}\quad\cdots\quad{x_{\max ,d}}]$ 为求解问题的上边界,“$ \odot $ ”表示哈达玛积,即前后两向量对应维度内的元素相乘。每一条旗鱼和沙丁鱼的位置都是求解问题的一个可行解,可行解的质量可以通过适应度函数
$ f( \cdot ) $ 进行计算。第$ g $ 次迭代中旗鱼种群最小的适应度值为最优的适应度值$ F_q^g $ ,将其量子位置确定为当前迭代的最优量子位置${{{\bar {\boldsymbol{q}}}}^g} = [\bar q_1^g\quad\bar q_2^g\quad\cdots\quad\bar q_d^g]$ ,整个旗鱼种群中到第$ g $ 次迭代为止最优适应度值为全局最优适应度值$ G_q^g $ ,其位置为精英旗鱼量子位置${{{\boldsymbol{q}}}}_{{\text{elite}}}^g = [q_{{\text{elite,1}}}^g\quad q_{{\text{elite}},2}^g\quad\cdots\quad q_{{\text{elite}},d}^g]$ 。第$ g $ 次迭代中沙丁鱼种群最小的适应度值为最优的适应度值$ F_s^g $ ,将其量子位置确定为当前迭代的受伤沙丁鱼量子位置${{{\boldsymbol{s}}}}_{{\text{injured}}}^g = [s_{{\text{injured}},1}^g\quad s_{{\text{injured}},2}^g\quad\cdots\quad s_{{\text{injured}},d}^g]$ 。旗鱼种群在精英旗鱼的带领下向沙丁鱼群发起进攻,并且会向受伤的沙丁鱼靠近完成捕食,因此每条旗鱼的下一代量子位置受到精英旗鱼和受伤沙丁鱼的影响。第
$ g + 1 $ 次迭代中第$ i $ 条旗鱼的第$ j $ 个量子位采用模拟量子旋转门进行更新为$$ \theta _{ij}^{g + 1} = {r_1}\left( {q_{ij}^g - q_{{\text{elite}},j}^g} \right) + {\lambda ^{g + 1}}{r_2}\left( {q_{ij}^g - s_{{\text{injured}},j}^g} \right) $$ (10) $$ q_{ij}^{g + 1} = \left| {q_{ij}^g\cos \left( {\theta _{ij}^{g + 1}} \right) - \sqrt {1 - {{\left( {q_{ij}^g} \right)}^2}} \sin \left( {\theta _{ij}^{g + 1}} \right)} \right| $$ (11) 式中:
$ {r_1} $ 为$ [0,1] $ 的均匀随机数;$ {r_2} $ 为满足均值为0、方差为1的高斯分布随机数;$ {\lambda ^{g + 1}} $ 为一个系数,定义为$$ {\lambda ^{g + 1}} = 2 \times r \times {P^{g + 1}} - {P^{g + 1}} $$ (12) 式中:
$ {P^{g + 1}} = 1 - {{{N_q}} \mathord{\left/ {\vphantom {{{N_q}} {{N_q} + N_s^g}}} \right. } {{N_q} + N_s^g}} $ 为沙丁鱼群密度,表示每次迭代时沙丁鱼种群数量会随着旗鱼的捕食而明显减少;$ N_s^g $ 为进行第$ g + 1 $ 次迭代时沙丁鱼种群数量;$r$ 为$ [0,1] $ 的均匀随机数。随着旗鱼群不断地攻击沙丁鱼群,会使沙丁鱼的能量存储减少,降低侦察旗鱼位置信息的能力,这将影响沙丁鱼群的逃跑,最终被旗鱼攻击导致受伤,成为旗鱼捕食的目标。因此第
$ g + 1 $ 次迭代中第$ k $ 条沙丁鱼的第$ j $ 个量子位采用如下方式进行更新:$$ \omega _{kj}^{g + 1} = {r_3}\left( {s_{kj}^g - q_{{\text{elite}},j}^g} \right) + {A^{g + 1}}{r_4}\left( {s_{kj}^g - s_{{\text{injured}},j}^g} \right)$$ (13) $$ s_{kj}^{g + 1} = \left| {s_{kj}^g\cos \left( {\omega _{kj}^{g + 1}} \right) - \sqrt {1 - \left( {s_{kj}^g} \right)} \sin \left( {\omega _{kj}^{g + 1}} \right)} \right| $$ (14) 式中:
$ {r_3} $ 为$ [0,1] $ 的均匀随机数;$ {r_4} $ 为满足均值为0、方差为1的高斯分布随机数;$ {A^{g + 1}} $ 为第$ g + 1 $ 次迭代时沙丁鱼的能量,其表达式为$$ {A^{g + 1}} = E \times \left[ {1 - 2 \times \left( {g + 1} \right) \times \xi } \right] $$ (15) 式中:
$ E $ 为沙丁鱼总能量,$ \xi $ 为能量衰减系数。在捕食的最后阶段受伤的沙丁鱼将会被旗鱼捕获,当沙丁鱼的适应度值比旗鱼更优时将被捕获,且每次迭代每条旗鱼最多捕获一条沙丁鱼。这种情况下旗鱼的量子位置用被捕获的沙丁鱼量子位置代替,若
$ f\left( {{{\hat {\boldsymbol{s}}}}_k^{g + 1}} \right) < f\left( {{{\hat {\boldsymbol{q}}}}_i^{g + 1}} \right) $ ,则$ {{{\boldsymbol{q}}}}_i^{g + 1} = {{{\boldsymbol{s}}}}_k^{g + 1} $ 。被捕获的沙丁鱼将会从沙丁鱼种群中移除,因此沙丁鱼的种群数量为$ N_{\text{s}}^{g + 1} = N_{\text{s}}^g - {D^{g + 1}} $ ,其中$ {D^{g + 1}} $ 是沙丁鱼被旗鱼捕获数量。算法终止条件为:当达到最大迭代次数或者所有沙丁鱼都被捕获,最后输出精英旗鱼位置。算法流程图如图2所示,其时间复杂度为
$ {{O}}({n^3}) $ 。3.2 演化LSTM神经网络
LSTM神经网络是循环神经网络(recurrent neural network,RNN)的特殊形式,解决RNN长期依赖问题。如图3所示,一个LSTM单元包含了一个记忆细胞和3个门。LSTM神经网络利用门控机制来控制信息传递过程中的积累速率,也可以有选择的忘记之前的信息,这样梯度就不会出现消失或者爆炸问题[20]。LSTM神经网络单元中的门控机制主要包括遗忘门、输入门和输出门3个部分。
LSTM神经网络记忆单元的计算过程可以表示为
$$ {{{{\boldsymbol{f}}}}_t} = {\text{sigmoid}}({{{{\boldsymbol{W}}}}_f} \odot {{{{\boldsymbol{x}}}}_t} + {{{{\boldsymbol{W}}}}_f} \odot {{{{\boldsymbol{h}}}}_{t - 1}} + {{{{\boldsymbol{b}}}}_f}) $$ (16) $$ {{{{\boldsymbol{i}}}}_t} = {\text{sigmoid}}({{{{\boldsymbol{W}}}}_i} \odot {{{{\boldsymbol{x}}}}_t} + {{{{\boldsymbol{W}}}}_i} \odot {{{{\boldsymbol{h}}}}_{t - 1}} + {{{{\boldsymbol{b}}}}_i}) $$ (17) $$ {{{{\boldsymbol{o}}}}_t} = {\text{sigmoid}}({{{{\boldsymbol{W}}}}_o} \odot {{{{\boldsymbol{x}}}}_t} + {{{{\boldsymbol{W}}}}_o} \odot {{{{\boldsymbol{h}}}}_{t - 1}} + {{{{\boldsymbol{b}}}}_o}) $$ (18) $$ {\bar {\boldsymbol{c}}_t} = {\text{sigmoid}}({{{{\boldsymbol{W}}}}_c} \odot {{{{\boldsymbol{x}}}}_t} + {{{{\boldsymbol{W}}}}_c} \odot {{{{\boldsymbol{h}}}}_{t - 1}} + {{{{\boldsymbol{b}}}}_c}) $$ (19) 式中:
$ {{{{\boldsymbol{f}}}}_t} $ 、$ {{{{\boldsymbol{i}}}}_t} $ 和$ {{{{\boldsymbol{o}}}}_t} $ 分别表示遗忘门、输入门和输出门的输出;${{{{\boldsymbol{x}}}}_t}$ 为$ t $ 时刻LSTM单元记忆细胞的输入;${{{{\boldsymbol{h}}}}_{t - 1}}$ 为前一个LSTM单元记忆细胞的输出;${{{\bar {\boldsymbol{c}}}}_t}$ 表示$ t $ 时刻LSTM单元临时记忆细胞状态;$ {{{{\boldsymbol{W}}}}_f} $ 、$ {{{{\boldsymbol{W}}}}_i} $ 、$ {{{{\boldsymbol{W}}}}_o} $ 和$ {{{{\boldsymbol{W}}}}_c} $ 表示权重矩阵,分别对应遗忘门、输入门、输出门和神经元更新矩阵,$ {{{{\boldsymbol{b}}}}_f} $ 、$ {{{{\boldsymbol{b}}}}_i} $ 、$ {{{{\boldsymbol{b}}}}_o} $ 和$ {{{{\boldsymbol{b}}}}_c} $ 分别为对应的偏置值。根据式(16)~(19) LSTM单元当前的记忆细胞状态和输出可以表示为$$ {{{{\boldsymbol{c}}}}_t} = {{{{\boldsymbol{f}}}}_t} \odot {{{{\boldsymbol{c}}}}_{t - 1}} + {{{{\boldsymbol{i}}}}_t} \odot {{{\bar {\boldsymbol{c}}}}_t} $$ (20) $$ {{{{\boldsymbol{h}}}}_t} = {{{{\boldsymbol{o}}}}_t} \odot \tanh ({{{{\boldsymbol{c}}}}_t}) $$ (21) 这是LSTM神经网络的前向计算过程,这种特殊的结构能够使其学习长期依赖,并且已经广泛应用于文本分析、时间序列预测等领域。
训练LSTM时,首先输入层的输入数据经过隐藏层的LSTM单元进行正向传播,通过输出层得到神经网络第
$ m $ 次迭代的实际输出为$ {{{{\boldsymbol{a}}}}_m} $ ,对于网络的最终输出采用softmax函数计算结果属于某一类的概率为$$ {\hat y_{mk}} = \frac{{{{\text{e}}^{{a_{mk}}}}}}{{\displaystyle\sum\limits_{{{k' = 1}}}^K {{{\text{e}}^{{a_{mk'}}}}} }} $$ (22) 式中:
$ k \in 1,2,\cdots,K $ ,$ K $ 为网络输出类别数。根据真实值${{{\boldsymbol{y}}}} = \left[ {{y_1}\quad{y_2}\quad\cdots\quad{y_K}} \right]$ ,用于训练LSTM网络的损失函数为交叉熵:$$ {L_m} = - \sum\limits_{k = 1}^K {{y_k}} \ln {\hat y_{mk}} $$ (23) 通过通信信号调制识别的训练数据及相应的标签可以训练得到通信信号调制识别LSTM神经网络模型。将验证集用于该神经网络模型,得到验证集上的识别正确率
$ T $ ,本文采用LSTM神经网络模型训练过程中在验证集上准确率的倒数作为目标函数$ f = {1 \mathord{\left/ {\vphantom {1 T}} \right. } T} $ 。将旗鱼和沙丁鱼的量子位置映射为位置表示训练LSTM神经网络模型的超参数,包括隐含层神经元数、初始学习率和训练次数,将其代入LSTM神经网络模型进行训练。通过在训练集上训练可以得到一个通信信号调制识别LSTM神经网络模型,采用训练得到的LSTM神经网络模型在验证集上准确率的倒数作为目标函数,因此第
$ g $ 次迭代中第$ i $ 条旗鱼在验证集上的准确率为$ T_i^g $ ,其适应度值为$f\left( {{{\hat {\boldsymbol{q}}}}_i^g} \right) = 1 / T_i^g$ ,第$ k $ 条沙丁鱼在验证集上的准确率为$ T_k^g $ ,其适应度值为$f\left( {{{\hat {\boldsymbol{s}}}}_k^g} \right) = 1/ {T_k^g}$ 。3.3 量子旗鱼演化LSTM实现过程
本文通过量子旗鱼算法演化的LSTM神经网络被用来实现冲击噪声下的调制信号识别,具体的执行步骤如下所示:
1) 建立调制信号仿真数据集:生成调制信号,通过冲击噪声信道,获得干净调制信号数据集和含噪声调制信号数据集。
2) 去噪声预处理:取一部分数据用来训练CNN去噪声模型,将剩余数据通过STFT变换后采用训练好的CNN去噪声模型进行去噪声预处理,输出为去噪声后的STFT频谱作为LSTM神经网络调制信号识别的数据集。
3) 设置适应度函数:采用训练集用于训练神经网络,达到最大训练次数的LSTM神经网络在验证集上的准确率的倒数作为适应度函数。
4) 初始化量子旗鱼算法参数,初始化量子旗鱼和量子沙丁鱼的量子位置,每个量子位置为三维向量,分别表示LSTM神经网络的隐含层神经元数、初始学习率和训练次数。
5) 迭代更新量子位置:根据式(8)~(15)更新量子旗鱼和量子沙丁鱼的量子位置,计算适应度值,确定个体的最优适应度值,并对种群进行迭代更新。
6) 完成识别并分析结果:量子旗鱼算法迭代完成后取最优位置作为LSTM神经网络的超参数,并重新训练LSTM神经网络模型,通过步骤1)、2)生成新的测试集来测试训练好的LSTM神经网络模型,并分析识别结果。
4. 实验与分析
为了验证所提方法的有效性,采用数学计算软件进行仿真实验,仿真所用计算机配置为CPU:i7-10700F,GPU:GTX1660Super。用于验证所提方法性能的调制信号包括BASK、QASK、BFSK、QFSK、BPSK、QPSK、16QAM、64QAM、AM-BASK、AM-BFSK和AM-BPSK共计11种,实验中载波频率设置为
$ {f_c} = 408{\text{ kHz}} $ ,对于2FSK和4FSK分别设置$ {f_1} = 204{\text{ kHz}} $ ,$ {f_2} = 102{\text{ kHz}} $ ,$ {f_3} = 51{\text{ kHz}} $ 作为其他载波;采样速率$ {f_s} = 3.264{\text{ MHz}} $ ,码元速率${f_d} = 38\;400$ Baud,每帧信号中包含20个符号,每个符号的采样点数为85。加入噪声为加性标准Alpha分布噪声,特征指数$ \alpha = 1.5 $ ,混合信噪比为${\text{MSNR}} = [ - 10:2:10] \;{\rm{dB}}$ 。4.1 基于CNN模型的去噪性能
在训练CNN去噪模型时的信号数据集中每种调制信号在每一个MSNR下包含100条样本,输入信号数据集中一共包含12100条样本。将干净信号经过STFT变换,作为CNN网络模型的目标变量,将输入数据集按9∶1的比例随机划分为训练集和验证集。CNN网络模型的训练参数设置最小批尺寸为128,最大迭代次数为10,初始学习率为
$ {10^{ - 5}} $ 。为了验证所设计的CNN模型的去噪声性能,对混合信噪比0 dB的BASK信号进行去噪,与加权Myriad滤波算法[21]和最小均方(least mean squares, LMS)自适应滤波算法进行对比。图4(a)~(c)、(d)~(f)、(g)~(i)分别表示设计的CNN模型、加权Myriad滤波算法和LMS自适应滤波算法的输入BASK干净信号,加入冲击噪声后的含噪声信号和去噪后的输出时域波形图。
从图4(c)可以看出,通过训练好的CNN去噪声网络模型后,大的脉冲幅度被抑制,信号的幅度、频率和相位变化也比较明显,增强了含噪信号,极大地提高了混合信噪比,对信号时频域特征保留完整。与图4(f)和(i)对比,发现本文CNN模型能够重构最接近干净信号的去噪信号,加权Myriad算法引入了伪噪,而LMS算法无法恢复正确的时域波形,因此本文设计的CNN模型去噪性能明显优于加权Myriad算法和LMS算法。
4.2 量子旗鱼算法的性能测试
4.2.1 量子旗鱼算法的收敛性测试
为了验证量子旗鱼算法的性能,利用如表2所示的5个常用测试函数对所提算法的性能进行测试,并且采用了一些经典和优秀的算法用作比较:旗鱼优化器(SFO)[18]、鸟群算法(birds swarm algorithm, BSA)[22]、粒子群优化算法(particle swarm optimization, PSO)[23]、海鸥优化算法(seagull optimization algorithm, SOA)[24]和象群优化算法(elephant herding optimization, EHO)[25]。
表 2 测试函数Table 2 Test functions函数名称 函数表达式 定义域 维数 $ D $ Griewank $\begin{gathered} {f_1}(\boldsymbol x) = 1/4\;000\displaystyle\sum\limits_{ { { i = 1} } }^D {x_i^2} - \prod_{i = 1}^D {\cos \left( { { { {x_i} } \mathord{\left/ {\vphantom { { {x_i} } {\sqrt i } } } \right. } {\sqrt i } } } \right)} + 1 \end{gathered}$ [−600,600] 20 Levy $\begin{gathered}{f}_{2}(\boldsymbol x)={\mathrm{sin} }^{2}(\text{π}{\omega }_{1})+ \displaystyle\sum_{ { { i = 1} } }^{D-1}{({\omega }_{i}-1)}^{2} \left[1+10{\mathrm{sin} }^{2}(\text{π}{\omega }_{i}+1)\right]+ {(}{ {\omega }_{D} }\left[1+{\mathrm{sin} }^{2}(2\text{π}{\omega }_{D}+1)\right] \\其中\text{ }{\omega }_{i}=1+({x}_{i}-1)/4\end{gathered}$ [−10,10] 20 Schwefel $\begin{gathered} {f_3}(\boldsymbol x) = D \times 418.982\;9 - \displaystyle\sum_{ { { i = 1} } }^D { {x_i}\sin \left( {\sqrt {|{x_i}|} } \right)} \end{gathered}$ [−500,500] 20 Rastrigin ${f_4}(\boldsymbol x) = 10D + \displaystyle\sum_{i = 1}^D {\left[ {x_i^2 - 10\cos (2{\text{π} }{x_i})} \right]}$ [−5.12,5.12] 20 Ackley $\begin{gathered} {f_5}(\boldsymbol x) = - 20\exp \left( { - 2\sqrt {\dfrac{1}{D}\displaystyle\sum_{i = 1}^D {x_i^2} } } \right) - \exp \left( {\dfrac{1}{D}\displaystyle\sum_{i = 1}^D {\cos (2{\text{π} }{x_i})} } \right) + 20 + \exp (1) \end{gathered}$ [−32.768,32.768] 20 设置实验次数为100次,仿真结果为程序运行100次的平均值,最大迭代次数为1000。在仿真过程中各个优化算法的参数设置如下:QSFA和SFO初始总能量
$ E $ 和能量衰减系数$ \xi $ 的参数值分别设置为4和0.001,旗鱼初始种群个体数为3,初始旗鱼占沙丁鱼的比例$ p = 0.001 $ ;BSA鸟飞行行为的频率为10,认知系数为1.5,社会加速系数为1.5,直接和间接影响鸟警戒行为的2个常数$ {a_1} = 1 $ 和$ {a_2} = 1 $ ,初始种群个体数为30;PSO的$ {c_1} = 1.49 $ ,$ {c_2} = 1.49 $ ,最大加权因子$ {w_{\max }} = 0.9 $ ,最小加权因子$ {w_{\min }} = 0.1 $ ,种群中的个体数为30。SOA的线性因子$ {f_c} = 2 $ ,螺旋因子$ u = 1 $ 和$ v = 1 $ ,影响因子$ h = 0.01 $ ,种群个体数为30;EHO的家族数量为5,每个家族中的大象数量为6,影响因子为0.1,尺度因子为0.5。从图5(a)中可知当测试函数为Griewank函数时,PSO和BSA有比较快的收敛速度,但是容易陷入局部最优,而所提出的QSFA相对于其他算法有更好的收敛精度。
从图5(b)可以看出,对于Levy测试函数的SFO收敛精度优于BAS和PSO,但是收敛速度慢。而QSFA的收敛速度和精度都优于其他4种优化算法。
对于难解的Schwefel函数,从图5(c)可以看出BSA收敛精度优于SFO和PSO,但是收敛速度慢。而QSFA的收敛速度和精度都远优于其他4种优化算法。
从图5(d)和(e)可以看出,对于Rastrigin和Ackley函数,QSFA收敛速度和精度在5种优化算法中是最优的。
4.2.2 量子旗鱼算法的敏感性分析
由于SFO的一些参数对其性能具有明显影响,QSFA也保留了这些参数,下面对QSFA进行敏感性分析。利用表3所示的3种测试函数分析总能量E、能量衰减系数
$ \xi $ 和种群中旗鱼个数$ {N_{{\rm{SF}}}} $ 这3个参数对性能的影响。设置实验次数为100次,仿真结果为程序运行100次的平均值,最大迭代次数为1000,维数$ D = 20 $ ,初始旗鱼占沙丁鱼的比例$ p = 0.001 $ 。表 3 QSFA参数在不同情况下的敏感性分析Table 3 Sensitivity analysis of QSFA parameters under different conditions序号 参数值 测试函数值(D=20) E $ \xi $ ${N_{{\rm{SF}}} }$ Griewank Levy Schwefel 1 4 0.001 3 2.56×10−12 2.76×10−13 2.55×10−4 2 4 0.001 6 8.01×10−12 1.39×10−13 2.55×10−4 3 4 0.002 3 1.97×10−10 2.09×10−13 2.55×10−4 4 4 0.002 6 5.87×10−11 1.30×10−14 2.55×10−4 5 4 0.005 3 3.01×10−10 4.43×10−12 2.55×10−4 6 4 0.005 6 5.17×10−11 1.87×10−14 2.55×10−4 7 8 0.001 3 1.61×10−11 2.68×10−14 2.55×10−4 8 8 0.001 6 1.82×10−12 3.04×10−15 2.55×10−4 9 8 0.002 3 5.56×10−11 8.76×10−14 2.55×10−4 10 8 0.002 6 5.22×10−12 1.32×10−14 2.55×10−4 11 8 0.005 3 2.36×10−10 2.87×10−13 2.55×10−4 12 8 0.005 6 2.90×10−11 6.53×10−14 2.55×10−4 从表3可以看出,QSFA受到这3个参数的影响较小,无论采取哪组参数设置,QSFA收敛性能仍然优于SFO和其他对比优化算法,体现了QSFA的优越性,且具有解决其他优化问题的潜力。
4.3 本文方法性能测试与分析
由于LSTM神经网络的隐含层神经元数、初始学习率和训练次数等超参数最优值难以确定,因此设计了量子旗鱼优化算法演化LSTM神经网络确定网络的超参数,参数演化范围设置:隐含层神经元数为[1,150]的整数,初始学习率取值为[0.000 1,0.1],最大训练次数为[1,150]的整数。QSFA的参数设置:初始总能量和能量衰减系数的值分别设置为4和0.001,最大迭代次数为30,旗鱼初始种群个体数为3,初始旗鱼占沙丁鱼的比例
$ p = 0.1 $ 。将经过CNN去噪模型后的信号STFT数据集作为输入数据集,整个数据集包含11种调制信号,MSNR为−10~10 dB,间隔为2 dB。该数据集中每种调制信号在每个MSNR下有1000条样本,共计121000条样本,按照8∶1∶1的比例划分为训练集、验证集和测试集。
利用本文所提QSFA演化LSTM神经网络得到的超参数为:隐含层神经元个数126,初始学习率0.0003,最大训练次数31。
如图6所示为本文所提方法在多种MSNR混合测试集上的分类混淆矩阵,测试集中包含11种调制信号,−10~10 dB,间隔为2 dB的11种MSNR,每种调制信号下每种MSNR包含100条数据,共计12100条数据,所提方法整体识别准确率为79.1%。
将训练好的调制信号识别模型用在单一信噪比条件下的测试集上进行测试,每个测试集包含11种调制信号和一种MSNR,每种调制信号有500条样本。
如图7所示为本文所提方法模型在MSNR=0 dB测试集上的分类混淆矩阵,可以看出网络的整体识别准确率超过90%。模型对于16QAM和64QAM信号的分类效果不理想,因为数据集中每帧信号包含20个符号,而16QAM是64QAM的子集,导致做数据集时就容易发生混淆。另一个原因是通过冲击噪声信道后,信号的幅度特征被完全消除,通过CNN去噪模型后只能恢复部分幅度特征。
为了比较本文所提方法和现存方法间性能差异,采用相同的训练集和测试集。将该文所提方法同文献[26-29]中的方法相对比,图8给出的是包含11种调制信号的单一MSNR测试集上的识别正确率对比曲线。从图8可得本文所提方法在MSNR=0 dB时的平均识别准确率可以达到90%以上,高于文献[26-29]所提出的方法,并且本文所提方法在较低MSNR的冲击噪声环境下的识别准确率优于文献[26-29]所提方法。
为了证明本文提出的基于量子旗鱼算法演化LSTM神经网络模型(QSFA-LSTM)的性能,同样采用人工选择超参数的LSTM神经网络(MS-LSTM)、基于旗鱼优化器演化的LSTM神经网络(SFO-LSTM)和基于粒子群优化算法演化的LSTM神经网络(PSO-LSTM)模型,并且采用相同的训练集和测试集。MS-LSTM模型的参数为隐含层神经元数为100、初始学习率为0.003和训练次数为100。SFO-LSTM同QSFA-LSTM参数设置相同。PSO-LSTM的参数为
$ {c_1} = 2 $ ,$ {c_2} = 2 $ ,最大加权因子$ {w_{\max }} = 0.9 $ ,最小加权因子$ {w_{\min }} = 0.1 $ ,最大迭代次数为30,种群数量为10。如图9所示,分别表示在LSTM神经网络的训练过程中在验证集上准确率和损失,损失函数如式(23)所示,由于几种模型的最大训练次数不同,这里只取了前20次迭代。可以看出经过优化算法演化后的LSTM神经网络相较于人工选择超参数的LSTM神经网络MS-LSTM的训练过程更加平稳,在验证集上的准确率更高,损失更小。而所提出的QSFA-LSTM模型在训练过程中在验证集上的准确率是最优的,损失是最小的。
将4种训练好的调制信号识别模型分别在单一MSNR条件下的测试集上进行测试。表4给出了4种LSTM神经网络模型的超参数,所提QSFA-LSTM模型训练时间为15 h 27 min,而MS-LSTM模型训练时间为34 min。尽管所设计算法训练时间较长,但由于训练参数是离线进行的,训练后的各种LSTM模型进行测试或验证时间是近似相同的,满足实时检测要求不会影响所提出方法实用性。图10给出4种模型在包含11种调制信号的单一MSNR测试集上的平均识别正确率。可以看出,使用算法优化后的LSTM神经网络模型的识别正确率高于人工选择超参数LSTM网络模型的识别正确率,说明通过算法能够寻找到更优的网络超参数。几种优化方法演化的LSTM神经网络模型的识别正确率曲线相似,在低MSNR情况下QSFO-LSTM模型识别正确率略高于其他几种模型,在高MSNR时识别准确率非常接近。主要原因是这些算法都是基于个体种群的适应度值来选择最优值,都属于全局优化方法,从而降低了LSTM神经网络陷入局部最小值和过拟合的可能性。
表 4 不同方法得到的LSTM神经网络超参数Table 4 Hyper parameters of LSTM neural network obtained by different methods方法 隐含层神经元数 初始学习率 训练次数 MS-LSTM 100 0.003 0 100 PSO-LSTM 124 0.0001 30 SFO-LSTM 127 0.0006 20 QSFA-LSTM 126 0.0003 31 5. 结束语
本文设计了QSFA-LSTM混合模型结合CNN去噪模型实现冲击噪声环境下调制信号的识别。首先通过CNN模型学习干净调制信号STFT谱和含噪调制信号STFT谱之间的映射关系,对输入信号数据集进行去噪预处理,然后采用QSFA算法演化LSTM网络的关键超参数,最后使用去噪数据集的STFT谱特征训练QSFA-LSTM模型用于自动调制信号识别。仿真结果表明采用所设计的CNN模型去噪后,在低MSNR情况下能够抑制尖锐的冲击,限制幅度的范围,在较高MSNR情况下能够恢复出信号的时域和频域特征。并且去噪后的数据集训练出来的人工选择LSTM网络模型的识别正确率明显高于含噪信号数据集。所设计的QSFA在测试函数上表现了其优越的性能,可扩展应用到其他工程问题中,并且QSFA-LSTM模型克服了传统LSTM网络依赖人工选择超参数的缺陷。在包含多种MSNR测试集和单一MSNR测试集上训练好的QSFA-LSTM模型取得了更优的性能,本文所提方法整体识别准确率是最优的。在未来工作中针对复合调制信号容易发生混淆的问题,改进冲击噪声下演化LSTM神经网络的调制信号识别方法,使所设计的方法具有更优的复合调制信号识别正确率。
-
表 1 去噪声卷积神经网络参数设置
Table 1 Parameters setting of denoising convolutional neural network
卷积层 卷积核
数目卷积核
大小步长 归一
化层激活层 Conv1 18 $ 9 \times 8 $ $ 1 \times 1 $ BN ReLU Conv2、5、8、11 64 $ 5 \times 1 $ $ 1 \times 1 $ BN ReLU Conv3、6、9、12 64 $ 9 \times 1 $ $ 1 \times 1 $ BN ReLU Conv4、7、10、13 64 $ 9 \times 1 $ $ 1 \times 1 $ BN ReLU Conv14 30 $ 5 \times 1 $ $ 1 \times 1 $ BN ReLU Conv15 8 $ 9 \times 1 $ $ 1 \times 1 $ BN ReLU Conv16 1 $ 129 \times 1 $ $ 1 \times 1 $ — — 表 2 测试函数
Table 2 Test functions
函数名称 函数表达式 定义域 维数 $ D $ Griewank $\begin{gathered} {f_1}(\boldsymbol x) = 1/4\;000\displaystyle\sum\limits_{ { { i = 1} } }^D {x_i^2} - \prod_{i = 1}^D {\cos \left( { { { {x_i} } \mathord{\left/ {\vphantom { { {x_i} } {\sqrt i } } } \right. } {\sqrt i } } } \right)} + 1 \end{gathered}$ [−600,600] 20 Levy $\begin{gathered}{f}_{2}(\boldsymbol x)={\mathrm{sin} }^{2}(\text{π}{\omega }_{1})+ \displaystyle\sum_{ { { i = 1} } }^{D-1}{({\omega }_{i}-1)}^{2} \left[1+10{\mathrm{sin} }^{2}(\text{π}{\omega }_{i}+1)\right]+ {(}{ {\omega }_{D} }\left[1+{\mathrm{sin} }^{2}(2\text{π}{\omega }_{D}+1)\right] \\其中\text{ }{\omega }_{i}=1+({x}_{i}-1)/4\end{gathered}$ [−10,10] 20 Schwefel $\begin{gathered} {f_3}(\boldsymbol x) = D \times 418.982\;9 - \displaystyle\sum_{ { { i = 1} } }^D { {x_i}\sin \left( {\sqrt {|{x_i}|} } \right)} \end{gathered}$ [−500,500] 20 Rastrigin ${f_4}(\boldsymbol x) = 10D + \displaystyle\sum_{i = 1}^D {\left[ {x_i^2 - 10\cos (2{\text{π} }{x_i})} \right]}$ [−5.12,5.12] 20 Ackley $\begin{gathered} {f_5}(\boldsymbol x) = - 20\exp \left( { - 2\sqrt {\dfrac{1}{D}\displaystyle\sum_{i = 1}^D {x_i^2} } } \right) - \exp \left( {\dfrac{1}{D}\displaystyle\sum_{i = 1}^D {\cos (2{\text{π} }{x_i})} } \right) + 20 + \exp (1) \end{gathered}$ [−32.768,32.768] 20 表 3 QSFA参数在不同情况下的敏感性分析
Table 3 Sensitivity analysis of QSFA parameters under different conditions
序号 参数值 测试函数值(D=20) E $ \xi $ ${N_{{\rm{SF}}} }$ Griewank Levy Schwefel 1 4 0.001 3 2.56×10−12 2.76×10−13 2.55×10−4 2 4 0.001 6 8.01×10−12 1.39×10−13 2.55×10−4 3 4 0.002 3 1.97×10−10 2.09×10−13 2.55×10−4 4 4 0.002 6 5.87×10−11 1.30×10−14 2.55×10−4 5 4 0.005 3 3.01×10−10 4.43×10−12 2.55×10−4 6 4 0.005 6 5.17×10−11 1.87×10−14 2.55×10−4 7 8 0.001 3 1.61×10−11 2.68×10−14 2.55×10−4 8 8 0.001 6 1.82×10−12 3.04×10−15 2.55×10−4 9 8 0.002 3 5.56×10−11 8.76×10−14 2.55×10−4 10 8 0.002 6 5.22×10−12 1.32×10−14 2.55×10−4 11 8 0.005 3 2.36×10−10 2.87×10−13 2.55×10−4 12 8 0.005 6 2.90×10−11 6.53×10−14 2.55×10−4 表 4 不同方法得到的LSTM神经网络超参数
Table 4 Hyper parameters of LSTM neural network obtained by different methods
方法 隐含层神经元数 初始学习率 训练次数 MS-LSTM 100 0.003 0 100 PSO-LSTM 124 0.0001 30 SFO-LSTM 127 0.0006 20 QSFA-LSTM 126 0.0003 31 -
[1] IGLESIAS V, GRAJAL J, YESTE-OJEDA O. Automatic modulation classifier for military applications[C]//2011 19th European Signal Processing Conference. Barcelona: IEEE, 2011: 1814−1818. [2] DOBRE O A, ABDI A, BAR-NESS Y, et al. Survey of automatic modulation classification techniques: classical approaches and new trends[J]. IET communications, 2007, 1(2): 137–156. doi: 10.1049/iet-com:20050176 [3] 刘明骞, 李兵兵, 曹超凤, 等. 认知无线电中非高斯噪声下数字调制信号识别方法[J]. 通信学报, 2014, 35(1): 82–88. LIU Mingqian, LI Bingbing, CAO Chaofeng, et al. Recognition method of digital modulation signal under non Gaussian noise in cognitive radio[J]. Journal on communications, 2014, 35(1): 82–88. [4] AALO V A, PEPPAS K P, EFTHYMOGLOU G, et al. Evaluation of average bit error rate for wireless networks with alpha-stable interference[J]. Electronics letters, 2014, 50(1): 47–49. doi: 10.1049/el.2013.3231 [5] TIAN Xiaodi, SUN Xiaodong, YU Xiaohui, et al. Modulation pattern recognition of communication signals based on fractional low-order choi-williams distribution and convolutional neural network in impulsive noise environment[C]//2019 IEEE 19th International Conference on Communication Technology. Xi'an: IEEE, 2019: 188−192. [6] TSIHRINTZIS G A, NIKIAS C L. Fast estimation of the parameters of alpha-stable impulsive interference[J]. IEEE transactions on signal processing, 1996, 44(6): 1492–1503. doi: 10.1109/78.506614 [7] 查雄, 彭华, 秦鑫, 等. 基于多端卷积神经网络的调制识别方法[J]. 通信学报, 2019, 40(11): 30–37. CHA Xiong, PENG Hua, QIN Xin, et al. Modulation recognition method based on multi-inputs convolution neural network[J]. Journal on communications, 2019, 40(11): 30–37. [8] WANG Yu, LIU Miao, YANG Jie, et al. Data-driven deep learning for automatic modulation recognition in cognitive radios[J]. IEEE transactions on vehicular technology, 2019, 68(4): 4074–4077. doi: 10.1109/TVT.2019.2900460 [9] MENG Fan, CHEN Peng, WU Lenan, et al. Automatic modulation classification: a deep learning enabled approach[J]. IEEE transactions on vehicular technology, 2018, 67(11): 10760–10772. doi: 10.1109/TVT.2018.2868698 [10] CÂMARA T V R O, LIMA A D L, LIMA B M M, et al. Automatic modulation classification architectures based on cyclostationary features in impulsive environments[J]. IEEE access, 2019, 7: 138512–138527. doi: 10.1109/ACCESS.2019.2943300 [11] GAO H Y, WANG S H, SU Y M, et al. Evolutionary neural network based on quantum elephant herding algorithm for modulation recognition in impulse noise[J]. KSII transactions on Internet and information systems, 2021, 15(7): 2356–2376. [12] ZHANG Kun, LIANG Lin, HUANG Ying, et al. A network traffic prediction model based on quantum inspired PSO and neural network[C]//2013 Sixth International Symposium on Computational Intelligence and Design. Hangzhou: IEEE, 2013: 219-222. [13] DENG Wu, LIU Hailong, XU Junjie, et al. An improved quantum-inspired differential evolution algorithm for deep belief network[J]. IEEE transactions on instrumentation and measurement, 2020, 69(10): 7319-7327. [14] 杨发权, 李赞, 罗中良. 混合调制信号调制识别方法[J]. 中山大学学报(自然科学版), 2014, 53(1): 42–46. doi: 10.13471/j.cnki.acta.snus.2014.01.021 YANG Faquan, LI Zan, LUO Zhongliang. Method of modulation recognition of mixed modulation signal[J]. Acta Scientiarum Naturalium Universitatis Sunyatseni, 2014, 53(1): 42–46. doi: 10.13471/j.cnki.acta.snus.2014.01.021 [15] 刘高辉, 张娟娟. α稳定分布噪声下数字频移键控信号的分数低阶循环谱分析[J]. 电波科学学报, 2017, 32(1): 65–72. doi: 10.13443/j.cjors.2017011001 LIU Gaohui, ZHANG Juanjuan. Fractional lower order cyclic spectrum analysis of digital frequency shift keying signals under the alpha stable distribution noise[J]. Chinese journal of radio science, 2017, 32(1): 65–72. doi: 10.13443/j.cjors.2017011001 [16] KOUNOVSKY T, MALEK J. Single channel speech enhancement using convolutional neural network[C]// IEEE International Workshop of Electronics, Control, Measurement, Signals and their Application to Mechatronics. Donostia: IEEE, 2017: 1−5. [17] 李悦, 马晓川, 王磊, 等. 非高斯环境下的深度学习脉冲信号去噪与重构[J]. 应用声学, 2021, 40(1): 131–141. LI Yue, MA Xiaochuan, WANG Lei, et al. Using deep learning to de-noise and reconstruct pulse signals in non-Gaussian environment[J]. Journal of applied acoustics, 2021, 40(1): 131–141. [18] SHADRAVAN S, NAJI H R, BARDSIRI V K. The sailfish optimizer: a novel nature-inspired metaheuristic algorithm for solving constrained engineering optimization problems[J]. Engineering applications of artificial intelligence, 2019, 80: 20−34. [19] 高洪元, 刁鸣. 量子群智能及其在通信技术中的应用[M]. 北京: 电子工业出版社, 2016: 1−3. [20] SHAO Bilin, LI Maolin, ZHAO Yu, et al. Nickel price forecast based on the LSTM neural network optimized by the improved PSO algorithm[J]. Mathematical problems in engineering, 2019, 2019: 1–15. [21] KALLURI S, ARCE G R. Adaptive weighted myriad filter algorithms for robust signal processing in/spl alpha /-stable noise environments[J]. IEEE transactions on signal processing, 1998, 46(2): 322–334. doi: 10.1109/78.655418 [22] MENG Xianbing, GAO X Z, LU Lihua, et al. A new bio-inspired optimisation algorithm: bird swarm algorithm[J]. Journal of experimental & theoretical artificial intelligence, 2016, 28(4): 673–687. [23] SEO J H, IM C H, HEO C G, et al. Multimodal function optimization based on particle swarm optimization[J]. IEEE transactions on magnetics, 2006, 42(4): 1095–1098. doi: 10.1109/TMAG.2006.871568 [24] DHIMAN G, KUMAR V. Seagull optimization algorithm: theory and its applications for large-scale industrial engineering problems[J]. Knowledge-based systems, 2019, 165: 169–196. doi: 10.1016/j.knosys.2018.11.024 [25] WANG Gaige, DEB S, COELHO L. Elephant herding optimization[C]//2015 3rd International Symposium on Computational and Business Intelligence . Bali: IEEE, 2015: 1−5. [26] HU Yaohua, LIU Mingqian, CAO Chaofeng, et al. Modulation classification in Alpha stable noise[C]//2016 IEEE 13th International Conference on Signal Processing. Chengdu: IEEE, 2016: 1275−1278. [27] 杨洁, 弋佳东. 改进GA优化BP神经网络的雷达信号识别[J]. 西安邮电大学学报, 2019, 24(6): 11–15. doi: 10.13682/j.issn.2095-6533.2019.06.003 YANG Jie, YI Jiadong. Radar signal recognition based on BP neural network optimized by improved GA[J]. Journal of Xi’an University of Posts and Telecommunications, 2019, 24(6): 11–15. doi: 10.13682/j.issn.2095-6533.2019.06.003 [28] XIE Wenwu, HU Sheng, YU Chao, et al. Deep learning in digital modulation recognition using high order cumulants[J]. IEEE access, 2019, 7: 63760–63766. doi: 10.1109/ACCESS.2019.2916833 [29] JIANG Xinrui, CHEN Hui, ZHAO Yaodong, et al. Automatic modulation recognition based on mixed-type features[J]. International journal of electronics, 2021, 108(1): 105–114. doi: 10.1080/00207217.2020.1756456