郑州网站专业制作,汉沽谁做网站,专业做网站开发公司,微博营销策略来源#xff1a;AI科技评论作者#xff1a;焦李成整理#xff1a;维克多编辑#xff1a;青暮2021年12月17日#xff0c;西安电子科技大学人工智能学院教授、欧洲科学院外籍院士、IEEE Fellow焦李成受邀参加2021中国计算机大会“下一代演化计算发展趋势”论坛#xff0c;并… 来源AI科技评论作者焦李成整理维克多编辑青暮2021年12月17日西安电子科技大学人工智能学院教授、欧洲科学院外籍院士、IEEE Fellow焦李成受邀参加2021中国计算机大会“下一代演化计算发展趋势”论坛并做了“进化优化与深度学习的思考”的主旨报告。在报告中焦李成梳理了“进化”相关的发展渊源与思想起源指出了当前人工智能的学术缺陷与实际困境并从类脑的角度给出了解决路径“神经网络不应该是目前的意义上进行权重调参它的结构应该具备变化性、可塑性、学习性和动态性在类脑感知的过程中脑的奖惩、学习、信息表征机制以及突触的学习记忆、再生长和发育的机制对于信息的重建及编码和处理具有重要的作用。上述特性是现有深度网络所没有重视的。”以下是报告全文AI科技评论做了有删改的整理今天的演讲主要分为五个部分发展渊源与思想起源、进化优化与学习、类脑表征学习与优化、进化优化与深度表征学习以及思考与挑战。人工智能几十年来得到了长足的发展而进化优化和类脑启发的深度学习是现在人工智能技术的核心其关键是用脑处理知识和自然演化思想发展人工智能技术。这两个思想的发展可以通过历年颁发的科学奖项窥得一二。例如通过梳理脑科学诺贝尔奖可以明晰“人类如何思考”回顾图灵奖可以讨论“机器如何进行学习和推理”了解历年生物相关的诺贝尔奖可以在“生物如何选择优化”方面给我们启示。那么这些工作对现在的人工智能技术发展有什么启示其实目前学者用人工智能解决实际问题可以分为以下几个步骤机器学习推导符号 深度学习深度强化学习感知决策深度迁移学习环境适应深度元学习自动学习。对于这一步骤路径徐宗本院士曾经有一段关于机器自动学习的描述“机器学习自动化首先在数据层面上数据样本需要实现自生成、自选择其次在模型算法层面上模型算法需要实现自构建、自设计最后在环境任务层面上环境任务要实现自适应、自转换。人工智能的发展轨迹应该是从人工走向自动化再迈向自主智能。”从这段话也可以看出这几个步骤环环相扣一层比一层有难度那么我们应该如何更加有效的优化这条路径1进化优化思想起源进化优化的思想起源很早达尔文提出的全局优化以及拉马克、班德温提出的局部学习奠基了如今进化算法的学术思想。在进化学习语境下我们希望无组织机器通过进化、学习、反馈的路径找到通用的机器学习方法。1948年图灵在《智能机》报告中也指出从婴儿到成人人类大脑皮层可以看做从无组织机器进化为通用机器。在这之后进化优化发展出了四大基本分支进化编程1960年L.J.Fogel提出将模拟进化作为一个学习过程以生成广泛的人工智能机器其强调自然进化中群体级行为变化。进化策略1964年德国柏林工业大学的两位学生 L.Rechenberg与H. Schwefel借鉴生物的变异和选择提出了进化策略。遗传算法1975年J.H.Holland借鉴了C.R.Darwin的生物进化论与G.J.Mendels的遗传定律提出了遗传算法。遗传编程1980年S.F.Smith提出了基于遗传自适应算法的学习系统J.R.Koza撰写了《遗传编程用自然选择让计算机编程》。根据进化计算思想科学家们又设计了它的动力学过程群体智能它可以由混沌状态出发通过价值启发信息探索规律、模式和知识最终得到解。它的过程是通过动力学的演化过程以概率1收敛到全局最优解特点表现为随机、非线性、遍历、自组织性、适应性、多样性、稳定性和高度并行性。如上图所示群体智能的思想起源很早其代表性的方法包括蚁群优化、粒子群优化、免疫算法、萤火虫算法等等。利用进化优化求解复杂问题主要是利用它的并行性、奇异性、易修改性、高度的非线性以及广泛的应用性等特点从而匹配NP难问题和组合爆炸问题。此外在进化优化算法发展的过程中自然免疫学理论为人工免疫进化优化提供了坚实的理论基础。从信息负表示算法到免疫进化算法再到人工免疫的网络、克隆选择算法以及树突细胞算法让进化优化算法有了“利用先验知识具有容错性、免疫性、鲁棒性”等特点使其和实际问题更加靠近能够在动态中寻求最优解。生物免疫同样也证明了这一点生物诺奖的领域也为发展新的算法提供了坚实的理论基础。“在记忆中学习在遗忘中加速”使最优解算法更加有效符合优胜劣汰的根本思想。人工免疫系统模型的特点是学习记忆性、多样性、分布性、容错性和被动免疫性。这也为构造高效、鲁棒、容错的算法提供了生物的基础。人工免疫系统方法应用在各个领域已经有非常好的表现希望它能够和进化计算、深度学习结合起来共同推动领域发展。提及进化一定离不开类脑的感知和认知离不开神经网络以及深度学习。2021年诺贝尔医学奖颁给了David Julius和Ardem Patapoutian当时给出的获奖理由是人体对热、冷和触觉的感知能力对我们的生存至关重要并且支撑着我们与周围世界的互动。他们发现了“温度和触觉的受体”。这给我们带来了“类脑感知与认知研究非常有意义”的启示。从类脑的感知到认知是长时间的过程而认知科学是一门对心智及其过程进行多学科研究的科学如果说感知包含视觉、听觉、触觉、味觉等而认知是教会我们理解、思考、推断、决策那么如何对心智及其过程进行准确而全面的观察是认知科学的基础也是巨大的挑战。Tomaso A.Poggio教授认为人工智能过去的突破来自于神经科学将来的突破也来自于神经科学。2类脑表征学习与优化回忆类脑的感知和认知首先要了解脑的生物机理和基本特性。如上图所示人脑的六个特性是近20年生物界最新发现稀疏性、学习性、选择性、方向性、知识性和多样性。稀疏性1996年 Olshausen和 Field在《Nature》上发文提出神经元稀编学说2007年Svoboda和 Brecht在《Science》上发表论文用白鼠实验验证了神经元“稀疏编码”假说。学习性2011年美国MIT学者 Tenenbaum与CMU、 Berkeley、 Standford大学等人在《Science》上指出人类能从少量的数据学到一般化的知识即具有“抽象知识”的学习能力。选择性2011年 Pieter.R等在《Science》发文提出经实验证明猴子大脑细胞具有自主控制注意区域的能力2012年 Xilin Zhang在《Neuron》上发文提出视觉信息加工的初期具有显著注意机制。方向性2015年 Arseny Finkelstein在《Nature》上指出生物大脑中存在能感知方向与位置信息的方位角和倾斜角细胞2020年 Joshua Jacobsi等人在《Neuron》上发表观点提出在人脑内侧额叶中发现了一种以自我为中心空间定位的神经编码模式。这群神经元在空间和情景记忆中发挥重要作用。而现在的深度学习只建立在巨量神经元的并行上更热衷于前向的网络而对于神经元与神经元之间的反馈连接却没有多少研究。因此对于类脑的感知和认知无论从宏观层面、介观层面以及微观层面都需“再出发”都需要利用上述机理和特性进行分析、模拟、构造模型。神经网络的发展有很长的历史上述图片展示了一些卓越贡献者。例如最早生物神经元的提出者、MP神经元模型的提出者、感知机的提出者、连续神经元的提出者以及到后来明斯基提出感知器只能解决线性可分问题而不能解决非线性异或问题。其他学者在神经网络领域的贡献更加出色和难能可贵例如Grossberg夫妇奋斗一生提出了自适应共振机理论和三个ART系统。在中国层面提出发育神经元模型的吴文俊先生提出视觉通路中三色传导学说的张香桐先生模式识别的创始人傅京荪以及提出了忆阻器、Chua电路、细胞神经网络等理论的蔡少棠先生为神经网络的发展做出了巨大贡献。值得一提的是郭爱克、陈霖、蒲慕明等学者在生物领域的工作为建立神经网络提供了良好的基础。时刻不能忘记前辈的努力当代华人学者也在接力他们卓越的学术工作使得中国在国际上更有影响力。另外在2021年深度卷积网络发明者日本学者福岛邦彦获鲍尔奖表彰他通过发明第一个深度卷积神经网络「 Neocognitron」将神经科学原理应用于工程的开创性研究这是对人工智能发展的关键贡献。LeCun也曾评价福岛邦彦教授1980年的卷积网络工作给了他很大的启发促使了他1989,1998年分别提出CCN和LeNet。人工智能的发展和深度学习的兴起分不开从1943年、1944年、1949年到今天已经经历了几起几落。值得一提的是BP算法的出现让神经网络可以学习多层网络从某种意义上回答了明斯基“单层感知器不能解决非线性可分”的问题。BP算法出现自1974年P.Werbos在其哈佛大学博士论文中首次给出详细的数学推导。之后众多学者在其基础上进行改进才有了今天神经网络的发展。2021年Francis Crick最新工作指出大脑实际上不太可能使用反向传播也就是说BP复制或传递突触权重的信息进行更新但是在生物网络中神经元只能接收到其他神经元的输出信息而不能接收到突触权重或内部过程。这一发现也指出更具生物学意义的学习机制或许可以替代反向传播机制例如反馈比对、预测性编码、锥体神经元、注意力机制等等。因此神经网络不应该只是如今意义上的权重调参更重要的是其结构要具有变化性、可塑性、学习性和动态性目前这些特性是现在深度网络所没有重视的。同样在类脑感知的过程中奖惩机制、学习机制、信息表征机制、再生长和发育机制等对于信息的重建、记忆编码和处理具有重要的作用。目前这些特性在深度神经网络中也没有得到重视。人工智能中的“特征工程”、“特征搜索”、“表征学习”的说法应该换成“大数据驱动下的表征学习”、“大数据和知识先验驱动下的表征学习”这样显然更有意义。在研究认知建模、自动学习以及渐进演化的过程中应该结合环境的变化、自然的演化以及学习动态变化能够帮助我们在认知、学习、优化、计算、识别的道路上构造新的模型构造新的算法创新新的有潜力的途径。目前我们将物理的Wishart极化特性与大脑的稀疏性相结合提出了一种快速提取目标信息的非线性稀疏变换网络——Wishart Deep Stacking Network(W-DSN),设计了初级快速感知与高级层次感知模块能够在噪声未知时对目标数据自动抽取高层语义特征实现自动、高效、精准的分类。另一个工作是也把物理特征、脑的稀疏特征、多尺度特征与卷积神经网络相结合提出Contourlet卷积神经网络解决了稀疏的、方向的、多非变的尺度特征的提取和表征问题。3进化优化与深度表征学习人脑的进化包括神经网络的进化其实是参数的进化、超参数调整以及结构进化和动力学过程。而进化算法其实是从人工到自动的突围深度学习与进化相结合或许是让机器学习拥有自动进化能力的一种路径。深度与进化结合的研究有两方面的优势。其一进化解决深度网络结构、权重、参数等优化的科学问题其二深度解决进化搜索效率低、复杂度高的科学问题。具体而言深度学习改善进化计算收敛速度慢、解多样性退化、质量低的问题。例如利用深度神经网络表征问题的特性维持群体多样性深度神经网络代替昂贵的适应度评价过程利用深度神经网络学习进化计算的选解机制。进化计算和深度学习相结合在谋求自动求解非线性、小样本、大数据、高维度、组合爆炸等复杂向题非常有潜力。这方面的代表性工作是“神经结构进化搜索(NAS)”。神经网络结构的进化研究已经有几十年的历程如上图所示已经出现了一些出色的工作。它有如下特点无需求导进化搜索是随机搜索算法不需要计算梯度和解析的目标函数。群体特性进化搜索是基于种群的搜索算法一次可以获得多个解。组合爆炸进化搜索应用范围广适合大规模复杂问题的优化。全局最优解进化搜索是随机搜索方法且算法以概率1收敛到全局最优解。非线性随机进化搜索可以解决非线性问题寻优规则由概率决定。并行计算可以通过大规模并行计算来提高计算速度。2021年的最新工作中加拿大渥太华以及麦吉尔大学的研究人员表明使用突发规则构建的深度神经网络具有良好性能为进化神经网络架构搜索供了更加坚实的理论基础。换句话说机器正在进行的学习方式可以通过生理过程来逼近。神经网络权值优化也经过了多年的发展。80年代提出的权重优化相关工作包含动力学过程而目前神经网络的进化优化主要局限于权值的优化和超参的优化。这是组合爆炸问题使得优化过程收敛速度慢、计算时间长、复杂度高而难以使用。因此梯度优化算法容易受到局部最优的影响而进化算法在存在鞍点的情况下表现非常好。当前超参数选取大多依靠堆叠GPU这只能缓解计算量问题但从机理上而言需要找到自动学习的方法。超参数优化的问题在于非线性、非凸、组合优化、混合优化、试错成本高、组合爆炸。经过几十年的发展这些问题仍然没有解决。同样有几十年研究底蕴的领域还有元学习它需解决的基本问题是元知识的表征、元学习器以及元目标。现在已经有一系列的办法解决可解释性和鲁棒性但远远不够因为对泛化性能的提高、对可解释性的追求、对进化全局最优解的追求永远在路上。4总结因此我们需要通过自然智能包括类脑智能学习和优化来达成这些目标。在进化的路上我们需要做到“耳聪目明”例如表征的紧促、正交、准确学习的明确解释的清楚。以雷达研究为例从最早的看得见到测得准再到观得清最后到辨得明这恰恰印证了人工智能包括进化计算和深度学习的发展特点。ABC也就是人工智能AI、生物智能BI、计算智能CI有无限光明。希望我们共同牢记初心、不负使命、砥砺前行认认真真、扎扎实实做学问。未来智能实验室的主要工作包括建立AI智能系统智商评测体系开展世界人工智能智商评测开展互联网城市大脑研究计划构建互联网城市大脑技术和企业图谱为提升企业行业与城市的智能水平服务。每日推荐范围未来科技发展趋势的学习型文章。目前线上平台已收藏上千篇精华前沿科技文章和报告。 如果您对实验室的研究感兴趣欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”