2. 中国科学院大学天文与空间科学学院, 北京 100049
2. School of Astronomy and Space Science, University of Chinese Academy of Sciences, Beijing 100049, China
随着科学技术的发展和观测设备不断升级,天文数据呈现爆炸式增长。人工智能技术能够辅助天文学家处理分析海量天文数据,发现新的特殊天体和物理规律。天体光谱数据的智能处理正由传统机器学习方法逐步转向深度学习[1-3],主要采用基于计算机视觉的技术手段。文[1]提出了使用5层卷积神经网络估计大气参数的方法。文[2]提出使用自编码算法的神经网络对斯隆数字巡天(Sloan Digital Sky Survey, SDSS)光谱进行恒星大气物理参数的估计。文[3]提出使用深度神经网络模型并构造分类器对光谱进行分类。文[4]提出使用卷积神经网络检测太阳黑子。深度学习方法较机器学习在处理天体光谱数据上的精度、鲁棒性和泛化性都有明显提升。
大天区面积多目标光纤光谱天文望远镜(The Large Sky Area Multi-Object Fibre Spectroscopic Telescope, LAMOST, 又叫郭守敬望远镜)是一架新型的大视场兼备大口径望远镜,在大规模光学光谱观测和大视场天文学研究方面居国际领先地位。郭守敬望远镜是世界上光谱获取率最高的望远镜,每个观测夜采集万余条光谱。截止LAMOST DATA RELEASE 5 v1,已产生900多万条光谱。光谱类别的划分是所有天文研究的前提,正确的分类可以减少天文学家对数据的筛选、清洗工作,同时可以提高郭守敬望远镜数据的使用效率。光谱自动分类是从上千维的光谱数据中选择和提取对分类识别最有效的特征构建特征空间。天体光谱与其类别之间的关系是高度非线性的,实际观测中又存在大量来自仪器、天气方面的噪声。传统的机器学习与模板匹配方法在非线性关系的探索上表现不佳,而深度学习在非线性关系探索和表示方面有天然的优势,理论上高深度的神经网络可以拟合任意复杂的函数关系。
因此,本文基于郭守敬望远镜光谱数据特点对DenseNet[5]网络结构进行优化,并利用优化后的结构模型对光谱数据进行分类训练与检测,提出了基于DenseNet的光谱自动分类处理方法。本方法用于阿里云天池天文数据挖掘大赛——天体光谱智能分类,并在843支参赛队伍的3次数据评比中获得了2次第一、1次第三的成绩,证明了该模型在保证分类精度的同时,具有极强的鲁棒性、泛化性,适用于光谱的自动分类。
2 数据集以及类别本文数据集选自国家天文台与阿里云天池主办的“天文数据挖掘大赛”发布的郭守敬望远镜光谱数据①,共449 384条。随机抽取其中89 877条光谱作为验证集数据,其余作为原始的训练数据。海量不同但具有同一类别的光谱数据,可以显著提高模型的泛化能力,同时使模型在验证数据集上拥有很强的适应性。
① 天文数据挖掘大赛: https://tianchi.aliyun.com/competition/entrance/231646/information
郭守敬望远镜数据集中的每一条光谱提供了369~910 nm波长范围内的一系列辐射强度值。该竞赛是纯粹的数据挖掘比赛,光谱数据不含波长信息,但所有光谱数据的波段区间和采样点相同,采样点个数都是2 600个。
在目前的郭守敬望远镜巡天数据发布中,光谱主要分为恒星(STAR)、星系(GALAXY)、类星体(QSO)和未知(UNKNOWN)天体4大类,本文仅对恒星、星系和类星体3类天体光谱进行分类。
3 分类模型天体光谱数据是天体的点源光经过色散形成的、分布在不同波长下流量强度的序列。根据其吸收线、发射线的位置、强弱、宽度等性质,天文学家可以判断天体的类别。可以说,天体光谱在一维坐标系下的“样子”决定了它的类别,这种“样子”决定“类别”的任务天然适合于卷积神经网络。传统的卷积神经网络预训练模型都是针对二维图像数据构建并训练得到的,并不适用于一维天体光谱数据。为此基于计算机视觉领域广泛应用的DenseNet网络结构,针对光谱数据进行修改,建立了适用光谱数据的一维卷积神经网络模型解决天体光谱数据分类任务。网络模型结构如图 1。网络模型通过N+1个密集模块(Dense Block)结构依次连接,在密集模块中采用密集型连接结构解决深层网络带来的梯度弥散问题。
数据流的处理过程为,归一化的光谱数据经过卷积层后进入密集模块,经过N+1次密集模块特征提取得到高维特征图,随后对每个高维特征图进行全局平均,平均后的值再经过全连接层输出该光谱所属类别的概率预测值。
除最后一个密集模块外,所有密集模块后连接一个卷积层和一个池化层。二者的目的都是为了减少计算量,卷积层从数据维度上降低计算量,池化层从数据尺度上降低计算量,这两层的连接记为过渡模块。但是池化层通过将两个相邻的数据点平均成一个数据点,将原始数据的尺度变成了原来的一半,使得不同尺度下密集模块间不能再进行密集型的连接。为了进一步增强不同尺度下特征的联系和重用,对原DenseNet结构进行改进,在两个过渡模块间增加了额外的过渡模块跨层连接,如图 2。
密集模块通过卷积模块(Conv Block)密集型连接构成,如图 3。密集型连接使得在同一个密集模块中,所有卷积层的输入来源于前面所有层的输出,加强了不同特征间的联系,也缓解了深度神经网络在训练时遇到的梯度弥散问题。试验中使用2个卷积模块连接。更少的卷积模块使分类精度下降,更多的卷积模块不仅不会带来更高的精度提升,而且使计算量急剧增加。
卷积模块作为具体的特征提取结构,需要对输入数据进行针对性的构建。本文使用的天体光谱数据具有发射线、吸收线等物理特征,由于这些元素的谱线宽度、位置不确定,使用多个卷积步长(1、11、25、41)的卷积层分别对输入的数据进行卷积,将得到的不同卷积尺度下的卷积结果合并到一起后,使用卷积步长为1的卷积层进行不同卷积尺度下的整合,如图 4,使得神经网络模型可以对元素谱线进行更好的适应与学习。其中批归一化(Batch normalization)[6] -特征重标定结构(Squeeze-and-Excitation block)[7] -修正线性单元(Rectified Linear Unit)[8]依次连接的处理加在每一次卷积层前。批归一化和修正线性单元都是为了进一步缓解深度神经网络在训练时遇到的梯度弥散问题。
卷积层前的特征重标定结构使神经网络模型对产生的新特征进行再次选择。这个选择的过程通过对原始特征赋权重实现。通过学习的方式自动获取每个特征的重要程度,然后依照这个重要程度提升有用的特征,并抑制对光谱分类任务用处不大的特征。具体的实现方式如图 5。原始特征图通过全局平局池化转换为点向量,随后通过全连接层,输出每个特征图对应的权重,最后将原始特征图与该权重相乘,输出加权后的新特征图。
4 分类网络模型训练 4.1 数据归一化由于不同天体视星等、曝光时间不同,观测到的光谱流量差异巨大。为使分类网络模型更加鲁棒,能够适应不同流量差异,更快地学习各天体类别间的差异,对分类网络的输入数据进行归一化处理。如(1)式:
$ F=\frac{F-{{F}_{\min }}}{{{F}_{\max }}-{{F}_{\min }}}, $ | (1) |
其中,F为原始光谱流量数据;Fmin和Fmax为原始光谱流量数据的最小值和最大值。光谱归一化前后如图 6,图 6(a)是3条光谱归一化前的流量可视化展示,图 6(b)是归一化后的流量展示。归一化前不同光谱的流量不在同一数量级,归一化后不同光谱的流量统一。归一化有利于卷积神经网络更加快速地学习不同天体光谱间的特征差异,使神经网络关注的重点不包含流量因素。归一化使神经网络的训练速度加快,精度提升。
4.2 数据增强实验数据中恒星、星系和类星体3类天体所占比例为98.5:1.2:0.3,数据极度不平衡,恒星类型远多于其他两类,如图 7。不平衡的数据使卷积神经网络的分类效果下降,数据扩充是非常必要的。通过在星系、类星体数据上增加具有具体物理意义的噪声进行过采样扩充数据,从而增加星系、类星体的比例;在恒星类型数据上进行欠采样,减少该类别的比例。通过数据扩充,恒星、星系和类星体3类天体的比例平衡到1:1:1。
在星系、类星体数据增加的噪声是模拟天体光谱在产生过程中不可避免的噪声情况。实验模拟了3种噪声:CCD电子噪声、CCD坏像元和宇宙高能射线。
4.2.1 CCD电子噪声天体光谱最终的接收端是CCD相机。来自遥远天体的光经过色散后被CCD相机接收,通过光电效应产生电子,光子信息以电子的形式被记录下来。由于CCD相机在工作时产生的电子也会被自身接收,从而天体光谱产生的电子与CCD自身的电子同时被CCD当做光子信息记录,由此产生CCD电子噪声。CCD工作带来的电子噪声在信噪比越低时越明显。通过生成一个2 600列的高斯随机数模拟CCD电子噪声,随后加在归一化后的天体光谱上进行过采样扩充数据。增加模拟CCD电子噪声前后的光谱可视化如图 8。第1、2、3列展示了随机选取的恒星、星系、类星体天体类型光谱,第1、2行分别展示了对应的天体类型的原始光谱和模拟CCD电子噪声后的光谱。
4.2.2 CCD坏像元CCD相机的接收端难免出现故障,导致接收不到任何强度的光子信息。在光谱上的表现为某一波段的流量强度为0。虽然实际情况下,这种存在坏像元影响的光谱极少,但为了扩充数据,并使分类模型具有更强的泛化性和鲁棒性,通过将归一化后的光谱中某一随机波段、随机长度的流量置为0模仿CCD坏像元。增加模拟CCD坏像元前后的光谱可视化如图 8。第1、2、3列展示了随机选取的恒星、星系、类星体天体类型光谱,第1、3行分别展示了对应的天体类型的原始光谱和模拟CCD坏像元后的光谱。
4.2.3 宇宙高能射线在CCD相机接收光谱信息的同时,宇宙中的高能射线有几率直接打在CCD相机的接收端,使得某一随机波长处的流量强度极高。同样的,宇宙高能射线对光谱数据造成干扰的情况不多,但为了扩充数据和增加分类模型的泛化性和鲁棒性,通过将归一化后的光谱中某一随机波长处的流量置为1模仿宇宙高能射线。增加模仿宇宙高能射线前后的光谱可视化如图 8。第1、2、3列展示了随机选取的恒星、星系、类星体天体类型光谱,第1、4行分别展示了对应的天体类型的原始光谱和模拟宇宙高能射线后的光谱。
4.2.4 综合增强在光谱数据的实际产生过程中,CCD电子噪声、CCD坏像元和宇宙高能射线的影响同时存在。为了使扩充的数据更加贴近真实情况,对光谱数据同时增加这3种噪声的模拟。顺序依次是:原始光谱->模拟CCD电子噪声->模拟宇宙高能射线->模拟CCD坏像元。综合考虑这3种噪声前后的光谱可视化如图 8。第1、2、3列展示了随机选取的恒星、星系、类星体天体类型光谱,第1、5行分别展示了对应的天体类型的原始光谱和依次模拟了CCD电子噪声、宇宙高能射线、CCD坏像元后的光谱。
4.3 模型训练在训练卷积神经网络时使用亚当(Adam)优化器更新网络权重[9],使用交叉熵作为目标损失函数(Loss)。卷积神经网络中所有卷积层权重采用He式均匀方差缩放初始化(He Uniform Variance Scaling Initializer)[10]。神经网络共迭代训练60次,初始学习率设置为0.01,分别在第10、30、50次时减小到初始学习率的十分之一。训练过程如图 9,训练的前10次,由于学习率很大,验证集上的目标损失函数很不稳定。随着学习率的减小和训练的增加,训练集和测试集上的目标损失函数都趋于稳定,并且慢慢变小。30次训练后验证集目标损失函数几乎不再下降。为了防止过拟合,最终保留训练了35次的权重作为最终的模型。
5 分类网络模型结果与关注区域可视化将验证集数据在训练好的卷积神经网络上进行结果测试。验证集数据共89 877条,恒星、星系和类星体数量占比与原始数据一致。
5.1 各类别F1分数及混淆矩阵构建的卷积神经网络在验证数据进行分类,分类结果与验证数据的真实标签对比得到每一类的精确率、召回率和F1分数,如表 1,混淆矩阵如表 2。恒星类别天体光谱具有更强的特征,得到的恒星类别的精确率、召回率和F1分数均最高,F1分数达到了0.998 7。星系与类星体的F1分数相近,但星系类型的召回率更高,类星体类型的精确率更高。
Categories | Precision | Recall | F1-score |
Star | 0.999 5 | 0.998 0 | 0.998 7 |
Galaxy | 0.859 3 | 0.973 1 | 0.912 7 |
Quasar | 0.923 1 | 0.906 5 | 0.914 7 |
Average | 0.925 8 | 0.959 2 | 0.942 0 |
从混淆矩阵可以看出,恒星类型预测错误的光谱中,160条预测成了星系,18条预测成了类星体,星系占比89.89%,类星体占比10.11%。星系类型预测错误的光谱中,25条预测成了恒星,3条预测成了类星体,恒星占比89.29%,类星体占比10.71%。类星体类型预测错误的光谱中,20条预测成恒星,6条预测成星系,恒星占比76.92%,星系占比23.08%。对于本文的卷积神经网络,同时考虑恒星、星系和类星体3种类型,恒星和星系具有更高的相似性。在类星体与恒星、星系相似性的比较中,类星体与恒星更加相似。
将本文模型的分类效果与传统机器神经网络方法、深度信念网络[3]和未改进的DenseNet[4]分类效果进行了对比,恒星、星系、类星体的平均指标如表 3。传统神经网络出现了欠拟合问题,精确率、召回率和F1分数都显著低于其它方法,正是由于深层网络的梯度弥散或梯度爆炸所致。深度信念网络和DenseNet不同程度地解决了梯度弥散或梯度爆炸问题,精确率、召回率和F1分数有了明显提升。本文方法在DenseNet基础上进一步提升了各方面指标。
Methods | Number of layers | Precision | Recall | F1-score |
Traditional neural network | 4 | 0.426 0 | 0.269 3 | 0.329 9 |
Deep belief network | 4 | 0.816 6 | 0.843 7 | 0.829 9 |
DenseNet | 36 | 0.901 3 | 0.929 4 | 0.915 1 |
Ours | 36 | 0.925 8 | 0.959 2 | 0.942 0 |
卷积神经网络拟合的光谱数据与天体类型间的关系是自主学习的,而天体类别是根据其物理意义进行划分的。希望神经网络自主学习到天体反映在光谱上具有物理意义的谱线特征,这样的神经网络具有更高的可解释性。为了检验本文训练得到的模型是否真正学到了可以反映天体类型的特征谱线,使用类激活映射(Class Activation Mapping[11], CAM)方法对神经网络模型在预测分类时关注的重点区域进行了可视化。CAM是一种神经网络关注区域可视化方法,如图 10,具体流程为:(1)获取神经网络预测类别C;(2)获取全局池化后全连接层到类别C的权重w;(3)使用权重w加权求和全局池化前的所有特征图,得到求和后的特征图M;(4)归一化M并插值到原图大小。
随机选择分类正确的恒星、星系、类星体和分类错误的光谱,将神经网络在不同波段处关注的强弱展示在原始光谱上,如图 11。第1~3行分别展示了2条随机选择的分类正确的恒星、星系和类星体光谱及神经网络关注的区域,第4~5行展示了分类错误的光谱及神经网络关注的区域。光谱中越黄、越亮的波段,代表神经网络更加关注这些区域在分类时的贡献;越蓝、越暗的波段,代表神经网络更加忽视这些区域在分类时的贡献。恒星与星系、类星体在光谱上的显著差异,使其具有较强的氢元素的吸收线,这也是恒星大气相对于星系、类星体独有的特点。神经网络在对第1行的两条恒星光谱分类时,重点关注了氢元素的吸收线,和物理规律是一致的。神经网络在对第2~3行的星系、类星体分类时,即使存在一定红移,模型也重点关注了特定元素的发射线、发射带。神经网络在对第4~5行错误分类时关注区域相对弥散,关键的特征谱线因为信噪比低等原因在光谱中不显著,神经网络找不到关键的特征谱线。本文训练的神经网络模型在进行分类时,可以定位到具有具体物理意义的特征谱线。对于分类结果,该模型具有更强的可解释性。
6 总结本文基于在计算机视觉领域广泛应用的DenseNet网络结构,针对光谱数据进行修改,建立了适用光谱数据的一维卷积神经网络模型解决天体光谱数据分类问题。通过模拟CCD电子噪声、CCD坏像元和宇宙高能射线平衡数据中不同天体类型的数量。本文的卷积神经网络模型在随机选取的89 877条光谱测试中,恒星、星系、类星体的F1分数分别为0.998 7、0.912 7、0.914 7。为了检验该卷积神经网络模型的可解释性,对神经网络模型在分类时关注的区域进行可视化,结果表明,本文的卷积神经网络可以自主学习到各类天体对应的特征谱线,具有较强的可解释性。本方法被用于阿里云天池天文数据挖掘大赛——天体光谱智能分类,并在843支参赛队伍的3次数据评比中获得了2次第一、1次第三的成绩,证明该模型在保证分类精度的同时,具有极强的鲁棒性、泛化性,适用于光谱的自动分类。
致谢: 感谢中国虚拟天文台提供的数据资源和技术支持。感谢国家天文台-阿里云天文大数据联合研究中心、阿里云天池大数据众智平台对本文工作的支持。
[1] | 潘儒扬, 李乡儒. 基于深度学习技术的恒星大气物理参数自动估计[J]. 天文学报, 2016, 57(4): 379–388 |
[2] | 韩帅, 李悦. 基于BP神经网络(自编码)的恒星大气物理参数估计[J]. 自动化与仪器仪表, 2016(9): 230–231, 234 |
[3] | 刘真祥, 荣容, 许婷婷, 等. 基于深度信念网络的天体光谱自动分类研究[J]. 云南民族大学学报(自然科学版), 2017, 26(2): 162–166 |
[4] | 付小娜, 廖成武, 白先勇, 等. 基于LeNet-5卷积神经网络的太阳黑子检测方法[J]. 天文研究与技术, 2018, 15(3): 340–346 |
[5] | HUANG G, LIU Z, VAN DER MAATEN L, et al. Densely connected convolutional networks[C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2017: 4700-4708. http://www.researchgate.net/publication/319770123_Densely_Connected_Convolutional_Networks?ev=prf_high |
[6] | IOFFE S, SZEGEDY C. Batch normalization: accelerating deep network training by reducing internal covariate shift[C]// Proceedings of the 32nd International Conference on Machine Learning. 2015. http://dl.acm.org/citation.cfm?id=3045167 |
[7] | HU J, SHEN L, SUN G. Squeeze-and-excitation networks[C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2018: 7132-7141. http://www.researchgate.net/publication/319501512_Squeeze-and-Excitation_Networks |
[8] | GLOROT X, BORDES A, BENGIO Y. Deep sparse rectifier neural networks[C]// Proceedings of the fourteenth International Conference on Artificial Intelligence and Statistics. 2011: 315-323. |
[9] | KINGMA D P, BA J. Adam: a method for stochastic optimization[C]// Proceedings of the 3rd International Conference for Learning Representations. 2014. |
[10] | HE K, ZHANG X, REN S, et al. Delving deep into rectifiers: surpassing human-level performance on imagenet classification[C]// Proceedings of the IEEE International Conference on Computer Vision. 2015: 1026-1034. http://www.researchgate.net/publication/319770272_Delving_Deep_into_Rectifiers_Surpassing_Human-Level_Performance_on_ImageNet_Classification |
[11] | ZHOU B, KHOSLA A, LAPEDRIZA A, et al. Learning deep features for discriminative localization[C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2016: 2921-2929. http://www.oalib.com/paper/4016357 |