Challenges and reflections on brain-like perception and cognition
-
-
从脑科学和认知科学到人工智能,我们能够从生物物理机理中得到什么启发?推动认知人工智能,不仅需要“感知”也需要“认知”。 本文首先对人工智能与深度学习的发展脉络进行了梳理与反思,在此基础上浅谈认知建模、自动学习和渐近演化。
1. 人工智能与深度学习
1.1 人工智能发展历程
人工智能诞生距今已有60余年,在1956年的达特茅斯会议上,麦卡锡、明斯基、罗切斯特和香农等科学家首次提出“人工智能”这个术语,并明确了其完整的学术路径,标志着人工智能正式成为一门科学,也标志着人工智能这一新领域正式诞生。他们不仅在讨论中催生了人工智能这一概念,而且其具有前瞻性的工作也对后世产生了深远影响,尤其是对IT领域。
人工智能按照其核心思想分为5个学术流派:符号主义、联结主义、行为主义、贝叶斯学派和类推学派。这些学派从各自的角度出发对人工智能和机器学习进行阐释,发展人工智能需要这五大学派相互融合借鉴。
人工智能按照其自然发展的历史,又可以分成4个阶段:专家系统,特征工程,语音图像和文字处理,以及以增强学习、对抗学习、自监督学习、元学习和强化学习为代表性技术的当前阶段。
1) 专家系统阶段(1960—1980年):人工智能较为初级,主要依赖的技术是人工设计的规则。在这个阶段,人们主要希望人工智能系统能够进行搜索工作。
2) 特征工程阶段(1980—2000年):人们开始对原始数据进行处理从而提取特征,并使用简单的机器学习模型进行分类、回归等任务。
3) 第三阶段(2000—2010年):人们开始对语音、图像和文字等自然信息进行处理。在该阶段中,人工智能系统会将原始数据和答案标签输入深度学习模型。但是基于当时传统的二值串型结构的机器学习模型无法对如此复杂的系统进行学习从而完成对应的复杂任务,因此AI进入下一阶段。
4) 第四阶段(2010—2020年):人们将数据交给机器,并希望机器能够自动在数据中间挖掘其中所蕴含的知识。但是在实际应用中,系统仍旧依赖人类对模型和数据进行组织编排,从而指导模型进行知识的挖掘。我们虽然希望AI模型能够自动挖掘知识,但是模型的成功运行很难离开人类的监督和指导。
在这个绚烂的第四阶段中,产生了机器证明、机器翻译、专家系统、模式识别、机器学习、机器人与智能控制等多种领域。虽然它们的核心不同,但都是AI发展第四阶段中不可或缺的重要部分。
人工智能已经经历了从“特征工程”“特征搜索”到现在的“表征学习”“学习解意”的新阶段,这为计算机视觉领域带来了大数据驱动的表征学习、识别和优化的新范式。
1.2 神经网络与深度学习
历经70年的发展,神经网络作为人工智能最核心的部分,从浅层模型发展到深层模型,进入到一个新阶段。面对如今海量、有噪声、小样本、非平稳、非线性数据的表达、学习和解译等场景和问题,神经网络和传统的数据训练方法已有很大区别。
神经网络的学习包含很多因素:其中最根本的是基本科学问题的研究;其次是学习理论的理解,包括表示理论、优化理论、泛化理论。其算法基础不仅包括网络模型本身(如卷积神经网络、自编码、循环神经网络、生成对抗网络、注意力机制等深度学习模型),还包括背后的机理,以及提升算法有效性、可行性和在线处理的优化方法。
模型的优化方法以传统的梯度为基础体系,目前应用最多的是以全局达尔文、局部拉马克为首的启发式算法。启发式算法面临着随机、正交、收敛,数据匹配的增广、领域自适应处理、归一化等问题。
深度学习蓬勃发展,但也面临诸多难题,包括其自身理论或技术中的固有缺陷(非线性、小样本、噪声等问题),以及现实人工智能问题面临开放的变化环境。解决这些瓶颈问题,首先,需要研究问题的阐述方法,来解决特征和决策间的关系和解释的优先级问题。此外,需要解决认知上的缺陷,即概念的抽象、自动学习、渐近学习、直觉和遗忘等。最后需要攻克收敛的一致性、稳定性、梯度驻点属性等数学问题。
1) 难题1:可解释性
目前尚无针对可解释性的系统化理论和解决工具,对其研究可分成3类:在建模之前对数据的分布特性进行理解和阐述;通过建立规则的方式来实现对模型可解释性的探索;在建模之后,对模型的动作和功能(包括模型的生物机理和物理机理)进行有效、系统地研究和解释。
2) 难题2:不稳定性
在不稳定梯度的问题上,梯度消失和过拟合问题困扰人工智能算法已久。通常的解决方式是制定损失函数和范数,但该问题并没有因此而彻底解决。神经网络存在长时记忆和短时记忆,因此它也存在着灾难性遗忘的问题。这些灾难性遗忘的理论表征、学习方法、选择性遗忘和动力学空间的设计也是一个重要的课题。
3) 难题3:安全性问题
人们所设计和部署的神经网络模型,需要在很复杂且有人类参与的环境中运行和工作,这种开放和动态的环境中可能存在多种攻击(黑盒、白盒、灰箱),其安全性是一大问题。因此,神经网络在对抗攻击环境中的自我防御,也是一项重要的课题。
4) 难题4:小样本学习
算法的效益比(即部署的代价)是一项在部署前要考虑的重要问题。我们希望设计一种绿色、资源可优化的软硬件环境,并希望算法能够利用稀疏化方法,使其轻量化。因此,利用关键样本和小样本的学习就显得尤为关键。
小样本学习所面临的问题可以分为模型、度量和优化3个方面:模型的问题在于如何利用稀疏性、选择性和可变更新来建立稳定的模型。度量的问题在于如何用对实际的数据集因地制宜的设计度量方法,从而使网络学习到最佳参数;优化的问题在于通过调整优化方法来完成海量小样本的分类、回归任务。
此外,还有一些其他的瓶颈问题有待解决,深度学习的成功严重依赖于数据集,所谓“成也数据,难题也在数据”。因此,高质量数据的寻找和收集,一致性决策方法的制定是其根本症结。而如何解决模型坍塌问题、特征同变性问题、不平衡问题、安全性问题、局部最小值问题,则都是困扰深度学习发展的瓶颈。为解决上述问题,认知建模应运而生。
2. 认知建模
2.1 类脑感知
神经网络源于脑神经的计算,但真实的生物大脑中并不是用简单的计算来实现大脑认知的。类脑结构中所有的建模均具有稀疏性、学习性、选择性和方向性。然而,当前的深度学习技术仅利用并行输入、输出和海量神经元来解决所遇到的问题,并未充分考虑这些自然的生物特性。这是遗憾,也是机遇。
可以说,类脑感知和脑认知的生物学基础,为实现高效准确的复杂感知和解译提供新的思路,即感、知、用。从宏观上来说,神经网络模型需要首先对人类的认知特征进行建模,结合对深层结构、多源综合的宏观模拟,神经元稀疏认知,方向选择的微观模拟,以及神经元间显著注意、侧抑制等介观模拟信息,设计具有稀疏性、选择注意、方向性等特点的单元,构建新型深度学习模型。通过认知特性的建模提升对复杂数据的表征、处理与信息提取的能力。总的来说,认知建模就是对人脑认知过程中的微观、介观、宏观特性进行分析与模拟。
2.2 相关工作
1) 类脑稀疏性
在认知建模和稀疏性方面的研究工作有:
① 模拟基于生物视网膜机理的高效场景信息稀疏学习,初级视皮层各类神经元动态信息加工与稀疏计算,以及中/高级视觉皮层神经元特性的稀疏识别特点,发展稀疏认知学习、计算与识别的新范式。
② 将稀疏性表征、深度学习和数据随机性特征结合,提出多种神经网络模型,该工作有益于调参,有益于训练技巧和性能的提升。
③ 研究深度学习和各类传统机器学习模型之间的内在关系,以期理解深度学习的工作原理,构建更加强劲、鲁棒的理论架构。
④ 研究激活函数的逼近,分类器的设计以及随机特性的处理问题。提出了结构的处理,稀疏的正则化,连接结构的剪枝,低秩近似和稀疏自编码模型。
⑤ 提出了快速稀疏的深度学习模型、稀疏深度组合神经网络、稀疏深度堆栈神经网络、稀疏深度判别神经网络和稀疏深度差分神经网络。这些方法的有效性和先进性也得到了验证。
2) 类脑学习性
研究发现人类能够从少量的数据中学到一般化的知识,也就是具有“抽象知识”的学习能力。我们希望能将这种特性在神经网络中表示出来,在类脑学习性和深度学习的结合方面研究工作主要有:
① 将极化SAR数据的Wishart分布特性和DBA结合起来,同时利用数据局部空间信息编码的特性,建立快速的极化SAR分类模型,其核心是物理的机理和深度学习的模型的结合,实现效果良好。
② 结合堆栈和模型,将物理特性结合到深度学习的并行处理模型当中,提出了一种速度快、自动化程度高、鲁棒性好的深度学习快速模型,通过对目标数据的自动高层语意的特征提取,实现了自动、高效和精准的分类。
3) 类脑的选择性
研究表明视觉信息的加工具有显著的注意力机制。注意力是人类认知功能的重要组成部分。人类在面对海量信息时,可以在关注一些信息的同时,选择性忽略部分信息。人脑中的注意机制建模会增强概念学习和认知学习的能力。计算机视觉领域的注意力机制和大脑的信号处理机制也是类似的。
4) 类脑的方向性
研究表明生物大脑中存在能感知方向与位置的方向角和倾斜角的细胞,而在人工智能计算机视觉领域中,实际处理的图像和视频信息也都有方向和方位的变化性信息,它和人脑的背景相同。
在类脑方向性和深度学习的结合方面研究工作主要有:
① 对几何结构进行建模,设计具备方向性的多尺度张量滤波器,这项工作在有关产品中表现出很好的效果。
② 依据多尺度几何理论,建立了新一代可分解重构的深度学习理论。该理论不仅能构建层级的差分特征,也能使不同层级抽象层次的差分特征形成一种新的信号表示,成为一种新的深度分解的重构模型。
③ 将深度Contourlet的方向性、逼近能力和卷积神经网络相结合,形成新的模型,达到较好的实验效果;将Rigelet网络与斑点及波正则化相结合,在SAR图像的分类场景中达到了极佳结果;对突触结构进行模型研究,期望将其记忆和存储等功能充分利用,目前研究结果包括长时程增强和抑制,它们都是现有工作中鲜有体现的。
3. 自动学习
为了有效而高效地处理海量的数据,后深度学习时代的另一个研究方向是数据的自动学习和处理。
学习模式的演化经历了数十年的发展:从1960年的浅层神经网络,到20世纪70年代的反向传播的发现,到20世纪80年代的卷积神经网络,再到1990—2000年的无监督、监督深度学习的卷土重来,直到现在的网络模型。回顾该演化历程我们发现,应该更加努力地研究自动深度学习。
实现自动学习的难点在于,我们要在特征工程、特征学习、感知+决策和环境适应的基础上,让机器能够学会学习,学会适应环境,学会感知决策。不仅要让机器能够生成对抗、架构搜索和迁移学习,更要让模型能够自动学习,从结构上进行新的探索。
自动学习在自动确定网络结构超参数上遇到了相当大的问题。很多研究人员都陷入了超参工程这一领域中,但这项工作并无太多的科学思考。神经网络的架构搜索,是解放人力的一种新途径。当务之急是如何针对需要解决的问题搜索到最佳的结构。
对于自适应神经树模型,我们采用了神经网络与决策树相结合的方法进行组建。此工作最早是由UCL、帝国理工学院和微软的研究人员提出的,他们提出了一种雏形的自适应神经树模型ANT,它依赖于各种数据的模式。那么对于复杂、动态的数据,如何设计一种自适应、快速、可微分、系统可通过BP进行训练的训练算法是一项挑战。
自动学习领域另一个研究热点是概率生成的确定性推理。在模型学习的过程中,很多时候需要“灵感”。记忆和学习永远是有效的、可逆的。这不仅是矛盾,更是矛盾的两面体。为了在模型学习的过程中利用这种关系,对于函数逼近论下的架构搜索,我们提出深度泰勒分解网络来解决求导难的问题,其采用逐层拆解的方法来解决深度网络过于复杂从而无法求导的问题。
4. 渐近演化
后深度学习时代面临的第3个研究领域是“渐近演化”。 从认知建模、自动学习,到渐近演化,不仅要对场景和设备的噪声、非线性变换等脆弱问题进行定位,更要解决面对海量、小样本的数据的复杂性所产生的问题。
渐近演化是受到人工智能、生物智能和计算智能的启发而提出的。我们希望网络能够进行充分的感知、全面的认知,进而进行感知和认知协同发展。渐近演化的基本观点是进行动态进化优化、学习时刻之间的相似性,最终进行领域适应的学习。也就是将现在以梯度学习为基础的机器学习算法,和演化计算结合起来构造高效的算法。
人脑的感知和认知是进化和优化的核心。其中包括权重优化、结构优化、稀疏网络优化、网络剪枝方法。它们都依赖于传统梯度算法和演化计算的结合。因此,要在网络模型和学习算法的结合上考虑协同进化的优化。这是需要考虑的重要问题之一。我们也将深度学习算法部署到时FPGA系统当中,并且取得了非常好的效果。
回顾人工智能的源头、基础和创新,要突破人工智能发展的瓶颈,我们要将生物机理、物化机理、数学机理、算法设计和硬件环境结合起来,实现从脑科学到认知计算,最终到人工智能的良性闭环。深度学习和人工智能的发展也经历了类似的过程。脑科学的诺贝尔奖、人工智能的图灵奖和认知科学的诺贝尔奖的重要发展,都是人工智能发展的基础。因此,脑科学、人工智能和认知科学的有机结合是人工智能下一阶段发展的重要方向。
从类脑感知到认知的人工智能,要求我们对事情不仅要进行感知,更要进行认知,而且需要学会思考、决策以及行动。这涉及心理学、哲学、语言学、人类学、人工智能和神经科学等多种学科。所以,类脑感知与认知的研究难题,需要多学科专家共同努力、深度合作去解决。