You are on page 1of 13

综述分析

AI-VIEW 2022 年第 6 期

从认知脑的计算模拟到
类脑人工智能
□文 / 曾毅 1,2,3#*,张倩 1,3#,赵菲菲 1#,赵东城 1#,李金东 1,3,申国斌 1,4,毕韦达 1

(1. 中国科学院自动化研究所脑图谱与类脑智能实验室,北京 100190;2. 中国科学院脑科学与智能技术卓越创新中心,


上海 200031;3. 中国科学院大学人工智能学院,北京 100049;4. 中国科学院大学未来技术学院,北京 100049)

摘要:让人类的心智在计算系统中重现,对大脑的模拟是其中的关键。目前,脑与认知科学的
进展虽然尚不足以支持对整个人脑及其连接进行精细计算模拟,但是受脑神经机制和认知机制
启发,从微观、介观和宏观水平对大脑进行计算建模仍然对于推进从科学上理解脑的机制机理
以及促进类脑人工智能意义深远。构建兼具生物合理性和计算高效性的神经网络模型是认知脑
的计算模拟与类脑智能研究面临的重要挑战。本文将从回顾认知体系结构、计算神经科学和类
脑人工智能的历史脉络、发展进程的视角切入,介绍大规模脑模拟的全球布局与进展以及类脑
脉冲神经网络平台的研究,最后展望未来脑模拟与类脑智能研究的发展方向。

关键词:认知体系结构;计算神经科学;类脑人工智能;跨尺度脑模拟;类脑脉冲神经网络

中图分类号:TP391;TP18 文献标志码:A 文章编号:2096-5036(2022)06-0028-13

DOI:10.16453/j.2096-5036.2022.06.003

0 引言

对人类认知和智能探索的核心是探究人脑与心智的工作机制,并通过计算建模模拟
人类心智,在计算系统中重现人类智能。以此为主要愿景和出发点,逐渐涌现出认知体
系结构、计算神经科学,以及人工智能三个相互关联的科学领域。认知体系结构采用自
顶向下的方式发展揭示人类认知的信息加工机制,计算神经科学采用自底向上的方式对
脑结构与机制进行精细化建模。这为实现真正意义的人工智能提供了神经信息处理机制
方面的重要线索。只有受脑与心智启发构建的智能模型才有可能实现科学意义上的人工
智能。因此,认知体系结构、计算神经科学、人工智能的发展需要更深入地汇聚、融合
与相互支撑。三者较为显然的交汇便是对认知脑的计算模拟。

28
从认知脑的计算模拟到类脑人工智能

1 认知体系结构 - 脑认知功能的宏观模拟

认知研究与计算科学的深度融合使我们可以通过计算建模去模拟人类心智,构建认
知体系结构,在计算系统当中重现人类的智能。图灵奖获得者 Newell 在其最后的演讲
当中提出他终其学术生涯希望回答的科学问题“人类的心智如何能够在物理世界重现”
及与其合作者毕生的学术贡献发挥了开创性的作用 [1]。
认知体系结构的研究以信息加工为基础构建人类认知模型,不仅对于揭示认知机制
与本质至关重要,更是人工智能发展的基石。认知体系结构的研究始于 20 世纪 50 年代,
目的在于创建可以进行跨领域推理同时又能适应新环境的计算系统 [2]。
在认知体系结构方面的尝试有数百种之多,涵盖了感知、注意力、学习、记忆、
推理等众多方面。从框架的结构设计分类主要包括以 ACT-R[3] 为代表的自顶向下认知
总体结构计算模型,以 Leabra[4] 为代表的自底向上认知总体结构计算模型,以及以
SAL[5] 为代表的顶层与底层相结合的认知总体结构计算模型。即使在单一架构中仅实
现一个真正意义的认知功能,也是一项任务繁重的工程。因此,目前只有一小部分架构
试图挑战更为通用的认知体系结构(如 ACT-R[3]、Soar[6]、BrainCog[89]、NARS[7]、
OpenCogPrime[8])。其他架构则专注某一特定认知功能,这将为建立统一的认知理论
带来较大挑战。
ACT-R 是由 Anderson 主导的致力于回答人类心智如何在物理世界中实现的认知
体系结构。ACT-R 后期的发展最鲜明的特点之一是它初步实现了对脑区的建模,模块
在行为层面模拟对应的脑区功能。它涵盖了感知、决策、语言、运动等广泛的认知功能,
具备坚实的认知心理学依据。但是,ACT-R 采用生产式实现认知功能,本质上还是一个
规则系统,认知功能之间的协同还不是自组织。由于模型没有采用神经网络实现,因此
其结构与运行机理与人脑相比还存在重要区别。
此 外,一 些 有 代 表 性 的 哲 学 架 构 还 包 括 LIDA[9]、Pandemonium Theory[10]、
Society of Mind[11]、CogAff[12], 以 及 全 局 工 作 空 间 理 论(Global Workspace
Theory,GWT)[13]。GWT 框架是由 Baars 提出的意识模型。该模型将大脑划分为利用
长距离进行连接与通信的多个执行不同功能的专用模块,这些模块并行运行。在全局工
作空间理论中,注意力机制是感知、认知和行动的核心。各个专用模块在整个全局工作
空间范围内争夺注意力,在全局工作空间中对新事物进行分析以获得最佳结果,而意识
正是在这个过程中得以产生。该理论的提出一开始关注于认知层面,之后发展到神经元
层面。总体而言,GWT 框架关注某种精神状态凭借意识在生物体的认知中所起的作用 [14]。
从以上的例子,我们可以看出,认知体系结构的发展对于人工智能本可以起到更多
的启发作用。然而,作为一个学科的人工智能以往的发展,并没有实质上极大地受到认
知体结构的推动。认知体系结构大部分情况下还是认知心理学的研究人员在使用,认知
心理学和认知科学的研究人员通过规则系统、神经网络模型,构建认知体系结构,主要
用于心理学计算建模。仅有少部分人工智能的研究人员使用这些系统,采用机器人、无
人车等载体进行人工智能验证。未来认知体系结构研究的内涵和外延既将对人工智能产
生深远影响,也会受益于人工智能的科学进展。

29
综述分析
AI-VIEW 2022 年第 6 期

2 计算神经科学 - 跨尺度的脑计算建模

计算神经科学对神经系统多尺度的神经机制进行理论建模、数学分析、计算机模
拟,进而实现从计算的角度理解脑。早在计算神经科学诞生之初,已经存在一些对单个
神经元记录和计算建模的探索。1907 年,Lapicque 提出了积分放电神经元模型 [15],
描述了细胞膜电压随着输入电流的累积变化关系,膜电压一旦达到阈值,神经元就会产
生动作电位并重置。1952 年,Hodgkin 与 Huxley 利用电压钳测得乌贼轴突的电位
数据 , 描述了一个由电压门控通道指导的基于电导的 Hodgkin–Huxley(H-H)模
型 [16],首次通过非线性微分方程定量解释了乌贼巨轴突中动作电位的产生和传播的离
子机制。H-H 模型关注的是神经元的局部电位变化,Rall 于 1957 年进一步提出了电
缆模型(Cable Theory)[17] 解释电信号在神经元的轴突和树突上的传导过程。在 20 世
纪 80 年代,显微记录技术的进步允许神经元模型考虑体外实验获得的离子通道和受体
的细节 [18]。此后,随着神经元模型在计算建模方面的应用,Izhikevich 简化了 H-H 模
型 , 提出了 Izhikevich 神经元模型 [19]。除以上常见模型外,在细胞水平上,Traub 等
根据细胞内记录的数据,为海马体中的特定神经元类型 , 构建了多房室 H-H 模型 [20]。
Wang 等提出了海马和新皮层结构中的快速峰值中间神经元模型,称为 Wang-Bzsaki
(WB)模型 [21]。在神经元树突连接水平上,Poirazi 等提出了由二次方程描述的非线
性积分树突神经元,与具有线性积分树突的神经元相比,该神经元具有更高的区分不同
类别模式的能力 [22]。受此启发,提出了皮层锥体神经元增强版本的树突模型 [23]、基于
树突电导调节模型 [24]。
在单个神经元电活动记录和计算建模的基础之上,进一步衍生出了对神经元群的活
动动态性建模的工作。Wilson-Cowan(WC)模型 [25] 从宏观尺度对兴奋性和抑制性
神经元群体之间动态相互作用所产生的震荡活动现象进行了描述。Kuramoto 模型 [26]
提供了一种描述大量耦合振子同步行为的数学模型,并被用于研究大规模宏观脑动力
学,能够很好地拟合神经影像学数据 [27]。自 2005 年发现网格细胞后,振荡干涉模型 [28]
和吸引子网络模型 [29] 被提出来解释空间重复发射模式的形成以及将这些信号转换为海
马体下游一个突触的信号。在感觉系统对外界信息编码和表征方面,Hubel 和 Wiesel
在猫的初级视觉皮层中记录到了具有方向选择性感受野的神经元 [30],发现了初级视皮
层对视觉刺激中不同成分的选择性编码,并基于猫上的实验数据提出了简单细胞和复杂
细胞的概念 [31]。HMAX 模型 [32] 基于此设计了多层网络模型,并实现了物体识别任务。
在猕猴上的实验数据表明,该模型很好地解释了下颞叶皮层神经元的活动模式。
在突触可塑性方面,1949 年 , Hebb 提出的赫布理论 [33](Hebbian theory),
描述了突触前后神经元持续重复活动可以增加突触传递效能的突触可塑性法则。毕国
强和蒲慕明等一系列学者的努力共同发现并建立相关理论,即突触前后神经元的活跃
时间的先后顺序对于突触可塑性很重要,并总结了时序依赖的突触可塑性法则(Spike-
Timing-Dependent Plasticity)[34]。
计算神经科学的研究还包括在宏观尺度的多脑区协同计算模型的研究,以模拟大脑

30
从认知脑的计算模拟到类脑人工智能

的行为和机制。Izhikevich 和 Edelman 提出了一个基于几种哺乳动物物种实验数据


的大规模丘脑皮层系统模型 [35]。该模型模拟了由全局白质到神经元多尺度的哺乳动物
大脑—它基于人脑的丘脑和皮层解剖结构 , 包含许多丘脑核以及皮层的 6 层微回路,
并使用了 22 种不同种类的基本神经元。因此,当模型被激活时,它表现出的行为特征
与正常的大脑活动非常相似,这些特征不是预设的,而是由于解剖学和动态过程之间的
相互作用而自发产生的。美国国立卫生研究院(NIH)Barry Horwit 团队强调执行认
知任务的神经子网的动态组合,特别是那些与视听和语言相关的任务。通过采用动态因
果建模,研究大规模神经模型的动态因果行为 [36],实现了推断连通性 [31,37],测量区域
血氧合依赖性(BOLD)信号 [38] 等功能。2012 年,加拿大滑铁卢大学的研究人员构建
的 SPAUN[39] 由 250 万个神经元组成,这些神经元被分割成大脑中的不同系统,包括前
额皮层、基底核和丘脑等。SPAUN 可以执行多项简单的认知任务,例如图像识别、工
作记忆、问答、强化学习、推理等。它通过一个类似摄像头的装置观察,并可指挥机械
臂进行书写等动作。SPAUN 是首个能够模拟大脑利用不同脑区协同展示多个认知功能
的模型,但还存在明显的提升空间。例如,SPAUN 的感知区域全部用深度学习模型代替,
没有真正采用脑区去模拟;针对不同的认知任务绘制不同的工作流,不能自主决策任务
的类型,不能对任务进行自主建模;脑区之间的连接是逻辑连接,没有真正采用生物脑
的约束,没有通过借助脑区之间的连接、脑的工作机制,提升智能水平。
计算神经科学从单个神经元、神经元群、学习法则、多脑区协同模型等多个尺度展
开了对脑结构和功能的模拟,以及预测网络的连接。通过对神经科学实验产生的数据进
行计算建模,能够复现部分现象和解释部分计算机制。但计算神经科学的研究在认知行
为的涌现方面仍存在欠缺,在启发人工智能,解决人工智能领域的关键问题、实现类生
物水平的认知功能等方面还需人工智能领域的学者予以足够重视。

3 类脑人工智能 - 结构机制类脑与认知功能类人的融合计算

人脑是一个非常复杂的非线性系统,这些庞大的神经元和突触协同快速并行地完成
各种特定的计算任务,实现了复杂、自主而强大的认知功能。神经科学的发展为设计人
工智能新的算法和架构提供了启发,构建像人脑一样自主学习的通用智能系统一直是人
工智能发展的目标。
1943 年,McCulloch 和 Pitts 模拟生物神经元的功能创建了人工神经元模型 [40],
但是这种通过对突触前信息加权求和模拟生物神经元的方式过于简化了生物神经元的功
能。随着对于生物神经元的深入研究,利用脉冲神经元模拟生物神经元的膜电势累积,
以及脉冲发放过程而诞生的脉冲神经网络被誉为第三代人工神经网络 [41]。进一步,考虑
到生物神经元的信息处理能力,文献 [42] 考虑利用一个多层的神经网络模拟单个生物
神经元的复杂度。
除了对于神经元的模拟之外,部分人工智能学者一直想理解人脑的学习方式,并
尝试用各种方式模拟人类的学习。反向传播算法 [43] 通过误差的逐层传播使得大规模神

31
综述分析
AI-VIEW 2022 年第 6 期

经网络的训练成为可能,该算法可以充分利用神经网络的多层结构,学习与给定任务相
关的特征,但是在细节上与人脑的信息传递方式不一致。首先,反向传播算法需要反馈
通路与前馈通路的权值对称,而这在生物系统中还没有找到明显证据,也称梯度转置问
题 [44]。其次,需要对相应前馈通路中的节点进行精确的求导,而人脑中很难得到节点的
精确导数。最后,误差的逐层传播很容易导致梯度消失或者爆炸的问题。于是,有很多
突触可塑性的算法被用来模拟人脑的学习方式。第一类是对比赫布学习(Contrastive
Hebbian Learning,CHL)[45-48], 平 衡 传 播 算 法(Equillibrium Propagation,
Equiprop)[49-51] 与 CHL 算法类似。这些基于能量的模型都有两个阶段,第一阶段通
过最小化能量函数对网络进行隐式的前向传播,第二阶段通过引入监督信号,对网络进
行隐式的反向传播,最终利用两个阶段的信息对网络权重进行更新。第二类是随机反馈
算法(Random Feedback Alignment,RFA)[44]。RFA 算法利用一个固定的随机矩
阵代替反向传播算法中前向传播突触权重的转置,使得网络能够高速地收敛到最优解。
直接随机反馈(Direct Feedback Alignment,DFA)[52] 在此基础上构建隐层和输出
层的直接连接传递误差信号。第三类是目标传播算法(Target Propagation,TP)。差
分目标传播(Difference Target Propagation,DTP)[53] 通过引入反馈连接,每个隐
层的目标通过反馈连接传递,从而避免了权重转置问题。误差驱动的局部表征对齐算法
(LRA-E)[54] 通过局部误差信号计算局部的目标,利用随机的反馈连接计算传递误差。
目前,绝大多数的深度神经网络的结构,本质上都是受到了大脑层次化信息处理的
启发。卷积神经网络主要由卷积层、池化层等一系列基本单元组成,从低层到高层的感受
野逐步增大,通过对卷积层的可视化发现,不同的卷积层分别和大脑皮层 V1、V2,以及
IT 区域对应 [55]。进一步,文献 [56] 通过引入循环机制,利用带门控机制的循环神经网络
模拟皮层微环路。分层时序模型(Hierarchical Temporal Memory,HTM)[57] 通过模
拟大脑皮层的六层组织的信息传递方式,与人脑的信息处理方式更为接近。除了对于大脑
的层级信息处理方式进行模拟之外,还存在大量的工作对于大脑不同脑区的功能模拟。
Braver 等 [58] 利用循环神经网络建模前额叶皮层的短期记忆以及抑制功能;Wang 等 [59]
利用循环神经网络,将前额叶皮层建模为一个独立运作的元强化学习系统;Hafner 等 [60]
使用循环神经网络模拟皮层,同时引入丘脑的中央路由机制,使得模块可以在多个时间共
享特征,与标准循环神经网络相比,提升了网络的性能。CTNN[61] 以一个编码解码器的形
式模拟皮层,编码层表现出皮层对于物体的识别能力,解码层表现出对于物体的重构能力,
通过丘脑的生物学行为启发,设置计算阈值,大大减小了计算的能耗。
为了实现认知脑的模拟,专用硬件方面的进展期望能够在定制硬件的助力下,减少
对复杂神经元特性计算的代价,同时提高对大规模脑网络模型的仿真速度。研究大致分
为两个方向。一个方向是通过不同的硬件架构,模拟更多的神经元数目和突触连接数目。
该方向的研究通常使用较为简单的神经元模型,部分研究采用众核的架构,每个内核支
持一定数目的神经元和突触连接,内核与内核之间使用片上网络总线进行通信,通过大
量的内核实现大规模的神经元的仿真,如 IBM 的 TrueNorth[62]、Intel 的 Loihi[63] 和
Spinnaker[64]。另一个方向是期望更加精细的模拟神经元的复杂特性以及学习机制,如

32
从认知脑的计算模拟到类脑人工智能

Izhikevich 神经元 [65] 和 AdEx 神经元 [66]、P-STDP[67]、T-STDP[68]。


人工智能作为一个独立的学科发展以后,便致力于行为建模逼近并超越人类。但是,
数据驱动的发展使其到达了一个瓶颈,因此人工智能的研究者们逐渐开始探索脑机制,以
试图发展类脑人工智能。这就需要对认知体系结构和计算神经科学有充分的借鉴和融合。

4 大规模脑模拟的全球布局与进展

脑与神经科学的发展、未来信息技术(特别是人工智能)的发展都为计算模拟人脑
的研究提出了迫切需求。近 10 年来,全球各个科学领衔的国家在脑模拟研究上都进行
了大规模布局。2013 年启动的为期 10 年的欧盟脑计划 [69](Human Brain Project,
HBP)原本的科学目标旨在利用超级计算机构建人脑模型,研究和揭示人脑是如何工
作的。近年来,逐渐侧重于开发信息和通信技术平台,研究神经信息学、大脑模拟、高
性能计算、神经形态计算和神经机器人等。HBP 建立了一个支持公开访问的数字研究
基础设施“电子脑”(EBRAINS),服务于脑科学数据和知识、三维图谱、脑模拟、神
经形态计算和神经机器人等脑科学研究。在脑图谱方面,基于大脑组织的细胞结构、
纤维结构和化学结构,以及功能、连接等,HBP 开发了一个多层次的人脑图谱 [70]、一
个相对全面的大鼠脑图谱,以及一个新的非人灵长类动物图谱的早期版本。在脑模拟
方面,HBP 发布的脑模拟仿真引擎涵盖了从分子和亚细胞到细胞、网络和全脑水平的
多尺度脑模拟。全脑水平上,HBP 发布了虚拟大脑 [71](The Virtual Brain,TVB)
开源平台用于构建和模拟个性化的大脑网络模型。在神经形态计算方面,HBP 集成有
SpiNNaker 和 BrainScaleS 两套大型神经形态计算系统。位于英国曼彻斯特的多核
SpiNNaker 机器基于数字多核架构提供实时操作;传统的 BrainScaleS-1 系统基于神
经元、突触和可塑性模型的物理仿真,提供高度加速操作;下一代 BrainScaleS-2 单芯
片系统具有 512 个点状神经元,不仅具有可编程的可塑性,而且可以很好地弥补计算平
台的异质性给系统性能带来的降低。在神经机器人方面,HBP 关注机器人行为控制、
认知学习、人机协同等方面的研究。HBP 研究大脑、本体和物理环境之间的闭环互动,
开发了基于触摸的远程机器人手,能够协调手部运动实现灵巧地操纵物体。
同年启动的美国脑计划(BRAIN)初期与人工智能研究的结合并不紧密,而随后美国
高级情报研究计划署(IARPA)于 2015 年启动资助达 1 亿美元的为期 5 年的 MICrONS
项目。MICrONS 项目团队试图通过使用鼠脑数据绘制出 1 立方毫米脑组织的神经元结构,
研究其神经元间环路连通的模式,从而逆向推演动物的大脑如何对外界刺激进行反应。他
们通过设计自动化的工具理解大脑如何连接,可以实现不间断连续自助成像,并能够获取
千兆级数据集 [72];研究人员在小鼠大脑的一小块区域中追踪了数千个神经元的路径,绘
制出迄今为止最大的神经元连接线路图,同时不仅展示了这些神经元是如何连接的,还展
示了它们在大脑处理信息时的功能 [73]。近期,MICrONS 发布了迄今为止最大的功能连接
组数据集,也是按最小维度,细胞数量和检测到的突触数计算的最大的连接组学数据,包
含了 20 万个脑细胞和接近 5 亿个突触的精细结构和连接。由于其规模和位置,该数据集

33
综述分析
AI-VIEW 2022 年第 6 期

包含多个皮层视觉区域,能够进行区域内和区域间的连接分析 [74]。
在美国脑计划的进程将要过半的时间,美国国立卫生研究院顾问委员会于 2018 年
4 月召集了一个新的外部专家小组,对 2014 年提出的《BRAIN 2025》的实施情况和
未来的发展进行再梳理,于 2019 年 6 月提交了时间跨度涵盖从 2020 年到 2025 年的
《BRAIN 2.0》。2022 年 9 月,美国国立卫生研究院(NIH)宣布了两个由“脑科学计划”
发起的创新项目,其中一个就是“脑科学计划之细胞图谱网络项目”
(BICAN)。未来 5 年,
BICAN 项目将获得 5 亿美元的资助,用于绘制世界最全面的脑细胞图。这些 BRAIN 2.0
项目旨在改变我们对脑细胞类型的理解,以及获取它们所需的精确工具,以期更加了解
人脑的复杂工作机制。
日 本 于 2014 年 6 月 启 动 名 为 Brain/MINDS(Brain Mapping by Integrated
Neurotechnologies for Disease Studies)的 10 年国家研究计划脑计划,在脑模拟方
向上的进展主要体现在依托超级计算机对大规模脑网络的模拟上。日本理化研究所和富
士通公司建立的“京”计算机,前期使用 82944 个处理器 +1PB 内存,耗时 40 分钟模拟
1 秒钟的 17.3 亿神经元的活动。2019 年,推出“MONET”模拟器,通过对任务的分块
和数据的共享实现访存功耗与带宽的降低 [75]。同期,
“京”超级计算机正式退役。
在半导体技术的快速进展下,日本理化研究所和富士通公司建立新的超级计算机
“富岳”。2020 年,他们在“MONET”模拟器上,实现了具有 50 亿个神经元的大脑
皮层且具有 640 亿个神经元的小脑的模型的仿真模拟 [76,77],并且适配“富岳”的宽位
SIMD 和众核架构,相比于“京”超级计算机,有 40 倍的性能提升。2021 年,“富岳”
超级计算机开始正式运行。截至 2022 年 5 月,“富岳”超级计算机在发布的超级计算机
排行榜位列第二名。2022 年,Gutierrez 等提出 SNNBuilder[78],一个从解剖学与电
生理实验数据到脉冲神经网络模型构建的数据驱动的协同开发框架,为 Brain/MINDS
提供了系统的脉冲神经网络建模工具。
来自冲绳科学技术大学的 Kenji Doya 团队关注于在闭环中模拟脑 - 身体 - 环境的
三位一体架构,提出了一个基于 NEST 的大规模脉冲神经网络框架,实现生物学精准的
肌肉骨骼模拟系统。该系统与物理上真实的虚拟环境互动,并部署在 EBRAINS 的高性
能计算资源上 [79]。此外,Kenji Doya 等建立了一个全脑概率生成模型实现的认知架构,
该架构受人脑结构启发 , 整合多个基本的认知模块实现一体化训练,基于概率生成模型,
为发育机器人设计了一个不断学习的基于感觉 - 运动信息的认知系统 [80]。
来自日本理化技术研究所的孙哲等主要致力于研究多类型皮层神经元在面对外界刺
激时的协同作用以及利用类型丰富的神经元建立皮层 - 基底节 - 小脑 - 丘脑的环路 [81]。例
如,初级躯体感觉皮层不同神经元、不同放电模式的累加可能导致环绕抑制这一现象 [82],
以及 M1 皮层中间类型神经元表现出能够对网络的局部与全局抑制范围可控等特点 [83]。
2021 年,中国“脑科学与类脑研究”重大项目指南发布,中国脑计划在类脑计算、
大规模脑模拟、脑机接口、神经形态芯片等方面已取得一定进展。前期清华大学推出的
Tianjic 芯片模拟了大脑中神经元之间传递信号的方式,ANN 与 SNN 模式共享路由设
施、存储空间和数据传输通路,各自拥有独立的运算处理通路,从而实现 ANN 与 SNN

34
从认知脑的计算模拟到类脑人工智能

的异构融合,并在无人自行车自动驾驶 [84] 以及猫鼠机器人 [85] 上进行了应用研究。北京


大学推出的 SpikingJelley 面向深度脉冲网络 [86],从数值优化的角度探索更加高性能的
脉冲神经网络训练算法。浙江大学推出神经拟态处理器 Darwin[87,88] 和相应的工具链和
微操作系统,并在手写数字识别和运动图像的脑电图解码任务上得到验证。随后推出的
Darwin 2,采用 55nm 工艺,支持超过 1000 万个突触连接。中国科学院自动化研究所
于 2022 年发布基于全脉冲神经网络的类脑认知智能引擎“智脉”(BrainCog)[89]。智
脉以多尺度神经可塑性为基本组件,同时支持类脑人工智能和脑结构功能模拟。脑模拟
方面涵盖针对神经微环路、皮质柱、鼠脑、猴脑、人脑等不同物种大脑的多尺度脑结构
与机制的计算模拟。

5 类脑脉冲神经网络平台 - 脑模拟与类脑人工智能的交汇

我们对现有的脉冲神经网络模拟平台从神经元、连接、学习法则、脑区划分进行了
对比(如表 1 所示)发现,以往绝大多数平台或试图仿真更为复杂的生物神经元、突触,
以及各种突触可塑性机制 [90-96],或试图构建大规模的深度学习脉冲神经网络框架 [86]。
表 1 国内外类脑脉冲神经网络及脑模拟平台对比

平台名称
评估维度 [94] [90] [91] [95] [93] [96] Spiking [97] [89]
NEST Neuron Brian Nengo BrainPy BindsNet [86] SPAIC BrainCog
Jelly

神经元 √ √ √ √ √ √ √ √ √

结 连接 √ √ √ √ √ √ √ √ √

脑区 × × × × × × × × √
生物 √ × √ √ × √ × √ √

学 转换 × × × × × √ √ × √
习 反向
机 × × × × √ × √ √ √
传播

强化
× × × × × √ √ × √
学习
认知
种类 较少 较少 较少 较多 较多 较少 较少 较多 丰富
功能

目前,已有的研究并不能很好在具备面向人工智能的高效学习与决策的同时,还具有
对脑认知功能建模和脑结构模拟的能力。中科院自动化所类脑认知智能研究组提出并发布
的智脉(BrainCog)[89] 框架分别从类脑人工智能计算模型(目前发布 20 个算法模型及源
代码)、脑结构和功能模拟 ( 覆盖鼠脑、猴脑、人脑模拟 ) 方面提供了相当数量的应用案例。
智脉以多尺度生物可塑性原理为基础,支持全脉冲神经网络建模,具备脑启发的人工智能
模型以及脑功能和结构模拟能力。智脉整合了不同的神经元模型、类脑学习与可塑性法则、
编码策略,基于脉冲神经网络实现可以映射到 28 个关键功能性脑区的计算模型。同时,
智脉协同多个脑区形成不同的神经环路,初步实现了五大类认知功能—感知和学习、决
策、运动控制、知识表征和推理、社会认知(如心里揣测、认知与情感共情)[89,99,100]。
在脑结构和功能模拟方面,智脉包含有果蝇线性和非线性决策、前额叶皮层工作记

35
综述分析
AI-VIEW 2022 年第 6 期

忆功能模拟。智脉集成
了多尺度的脑结构模
拟,从神经微环路、皮
层功能柱,到初步的鼠
脑、猴脑、人脑全脑脉
冲神经网络模拟。图 1
展示了 BrainCog 支持
的 大 鼠 V1 区 胞 体、大
鼠 V1 区 神 经 元、大 鼠
V1 区,以 及 M2 区 微
(a) 大鼠 V1 区胞体重建;(b) 大鼠 V1 区神经元重建;(c) 大鼠 V1 区与
米尺度结构重建、全脑 M2 区神经元重建对比;(d) 大鼠全脑微米尺度神经元结构重建(数据
神经元的多尺度脑结构 来自大鼠脑高尔基染色原始实验 )
[98]

图 1 基于智脉 (BrainCog) 的多尺度脑脉冲神经网络模拟


重建的结果。
在类脑人工智能计
算模型方面,智脉覆盖
有无监督学习、有监督
学习、强化学习、小样
本学习、多感觉融合的
概念学习、音乐序列学
习与创作、知识表征与
推理、运动控制,以及
以人形机器人为载体的
自我建模、心理揣测、
认知与情感共情等高等
(a) 机器人镜像自我识别测试;(b) 机器人心理揣测他人错误信念;(c)
认知功能、以无人机为 人形机器人多认知功能协同情感驱动音乐创作与演奏;(d) 无人机集群
自然启发的自组织避障
载体的集群自组织决策
图 2 基于智脉 (BrainCog) 的部分类脑认知智能应用
等智能应用。具体而言,
智脉支持类脑自我感知脉冲神经网络模型,使得机器人能够区分自我和他人、通过镜像
测试(图 2(a));智脉实现的多脑区协同的类脑心理揣测脉冲神经网络能够利用自我经
验对他人进行信念揣测和行为预测,使机器人通过错误信念实验(图 2(b));通过协同
感知与学习、知识表征与推理、运动控制等认知功能,智脉还赋予了人形机器人依赖于
情感的乐曲创作与演奏(图 2(c));以智脉为基础实现的奖励调控类脑脉冲神经网络,
可以赋能无人机集群使其实现基于自然启发的自组织避障(图 2(d))。

6 总结与展望

实现真正意义的人工智能离不开对智能本质的探索。虽然 , 实现真正科学意义又对

36
从认知脑的计算模拟到类脑人工智能

人类有益的人工智能需要做一些妥协,例如人类不擅长的东西不要引入到类脑智能研究
中;生物上发现的折中的策略也没必要放到类脑智能系统中。但是,脑结构与功能的模
拟,包括学习、发育、演化等多尺度可塑性本质探索则应当作为发展未来人工智能的基
础。科学意义上的人工智能应当发展结构与机制受脑与心智启发、认知行为达到乃至超
越人类水平的类脑智能。只有深度融合来自认知体系结构、计算神经科学与人工智能的
科学理论与进展,才能为发展类脑人工智能奠定更具科学性和可持续性的未来。

参考文献
[1] ANDERSON J R. How can the human mind occur in the physical universe?[M]. Oxford University Press, 2009.
[2] KOTSERUBA I, TSOTSOS J K. 40 years of cognitive architectures: core cognitive abilities and practical
applications[J]. Artifcial Intelligence Review, 2020, 53(1): 17–94.
[3] ANDERSON J R, LEBIERE C J. The atomic components of thought[M]. Psychology Press, 2014.
[4] O'REILLY R C, HAZY T E, HERD S A. The leabra cognitive architecture: How to play 20 principles with
nature[J]. The Oxford Handbook of Cognitive Science, 2016, 91: 91-116.
[5] JILK D J, LEBIERE C, O’REILLY R C, et al. SAL: An explicitly pluralistic cognitive architecture[J]. Journal of
Experimental and Theoretical Artifcial Intelligence, 2008, 20(3): 197–218.
[6] LAIRD J E. The Soar cognitive architecture[M]. MIT press, 2019.
[7] WANG P. Non-axiomatic reasoning system: Exploring the essence of intelligence[M]. Indiana University,
1995.
[8] GOERTZEL B. OpenCogPrime: A cognitive synergy based architecture for artifcial general intelligence[C]//
proceedings of the 2009 8th IEEE International Conference on Cognitive Informatics. IEEE, 2009.
[9] BAARS B J, FRANKLIN S. Consciousness is computational: The LIDA model of global workspace theory[J].
International Journal of Machine Consciousness, 2009, 1(1): 23-32.
[10] SELFRIDGE O G. Pandemonium: a paradigm for learning, Mechanism of Thought Processes[C]//
Proceedings of a Symposium Held at the National Physical Laboratory. London: HMSO, 1958.
[11] MINSKY M. Society of mind[M]. Simon and Schuster, 1988.
[12] SLOMAN A. The cognition and affect project: Architectures, architecture-schemas, and the new science of
mind[R]. School of Computer Science, University of Birmingham, 2003.
[13] BAARS B J. Global workspace theory of consciousness: toward a cognitive neuroscience of human
experience[J]. Progress in brain research, 2005, 150: 45–53.
[14] SETH A K, BAYNE T. Theories of consciousness[J]. Nature Reviews Neuroscience, 2022: 1–14.
[15] LAPIQUE L. Recherches quantitatives sur l'excitation electrique des nerfs traitee comme une
polarization[J]. Journal of Physiology and Pathololgy, 1907, 9: 620–635.
[16] HODGKIN A L, HUXLEY A F. A quantitative description of membrane current and its application to
conduction and excitation in nerve[J]. The Journal of physiology, 1952, 117(4): 500.
[17] RALL W. Membrane time constant of motoneurons[J]. Science, 1957, 126(3271): 454.
[18] TRAUB R D, WONG R K, MILES R, et al. A model of a CA3 hippocampal pyramidal neuron incorporating
voltage-clamp data on intrinsic conductances[J]. Journal of neurophysiology, 1991, 66(2): 635–650.
[19] IZHIKEVICH E M. Simple model of spiking neurons[J]. IEEE Transactions on neural networks, 2003, 14(6):
1569-1572.
[20] TRAUB R D, WONG R K, MILES R, et al. A model of a CA3 hippocampal pyramidal neuron incorporating
voltage-clamp data on intrinsic conductances[J]. Journal of neurophysiology, 1991, 66(2): 635-650.
[21] WANG X J, BUZSáKI G. Gamma oscillation by synaptic inhibition in a hippocampal interneuronal network
model[J]. Journal of neuroscience, 1996, 16(20): 6402–6413.
[22] POIRAZI P, MEL B W. Impact of active dendrites and structural plasticity on the memory capacity of neural
tissue[J]. Neuron, 2001, 29(3): 779–796.
[23] JADI M P, BEHABADI B F, POLEG-POLSKY A, et al. An augmented two-layer model captures nonlinear
analog spatial integration effects in pyramidal neuron dendrites[J]. Proceedings of the IEEE, 2014, 102(5): 782–
798.
[24] LOSONCZY A, MAKARA J K, MAGEE J C. Compartmentalized dendritic plasticity and input feature storage
in neurons[J]. Nature, 2008, 452(7186): 436–441.
[25] WILSON H R, COWAN J D. Excitatory and inhibitory interactions in localized populations of model
neurons[J]. Biophysical journal, 1972, 12(1): 1–24.
[26] ACEBRóN J A, BONILLA L L, VICENTE C J P, et al. The Kuramoto model: A simple paradigm for
synchronization phenomena[J]. Reviews of modern physics, 2005, 77(1): 137.
[27] PONCE-ALVAREZ A, DECO G, HAGMANN P, et al. Resting-state temporal synchronization networks emerge
from connectivity topology and heterogeneity[J]. PLoS computational biology, 2015, 11(2): e1004100.
[28] O'KEEFE J, BURGESS N. Dual phase and rate coding in hippocampal place cells: theoretical signifcance
and relationship to entorhinal grid cells[J]. Hippocampus, 2005, 15(7): 853–866.
[29] FUHS M C, TOURETZKY D S. A spin glass model of path integration in rat medial entorhinal cortex[J].
Journal of Neuroscience, 2006, 26(16): 4266–4276.
[30] HUBEL D H, WIESEL T N. Receptive felds, binocular interaction and functional architecture in the cat's
visual cortex[J]. The Journal of physiology, 1962, 160(1): 106.
[31] HUBEL D H, WIESEL T N. Receptive felds and functional architecture in two nonstriate visual areas (18

37
综述分析
AI-VIEW 2022 年第 6 期

and 19) of the cat[J]. Journal of neurophysiology, 1965, 28(2): 229–289.


[32] RIESENHUBER M, POGGIO T. Hierarchical models of object recognition in cortex[J]. Nature neuroscience,
1999, 2(11): 1019–1025.
[33] HEBB D O. Organization of behavior[J]. Journal of Clinical Psychology, 1949, 6(3): 335–337.
[34] BI G-Q, POO M-M. Synaptic modifcations in cultured hippocampal neurons: dependence on spike timing,
synaptic strength, and postsynaptic cell type[J]. Journal of neuroscience, 1998, 18(24): 10464–10472.
[35] IZHIKEVICH E M, EDELMAN G M. Large-scale model of mammalian thalamocortical systems[J].
Proceedings of the national academy of sciences, 2008, 105(9): 3593–3598.
[36] LEE L, FRISTON K, HORWITZ B. Large-scale neural models and dynamic causal modelling[J]. Neuroimage,
2006, 30(4): 1243–1254.
[37] HORWITZ B, FRISTON K J, TAYLOR J G. Neural modeling and functional brain imaging: an overview[J].
Neural networks, 2000, 13(8-9): 829–846.
[38] TAGAMETS M A, HORWITZ B. Integrating electrophysiological and anatomical experimental data to create
a large-scale model that simulates a delayed match-to-sample human brain imaging study[J]. Cerebral cortex,
1998, 8(4): 310–320.
[39] STEWART T, CHOO F X, ELIASMITH C. Spaun: A perception-cognition-action model using spiking
neurons[J]. Cognitive Science Society, 2012(34): 1018-1023.
[40] MCCULLOCH W S, PITTS W. A logical calculus of the ideas immanent in nervous activity[J]. The bulletin of
mathematical biophysics, 1943, 5(4): 115–133.
[41] MAASS W. Networks of spiking neurons: the third generation of neural network models[J]. Neural
networks, 1997, 10(9): 1659–1671.
[42] BENIAGUEV D, SEGEV I, LONDON M. Single cortical neurons as deep artifcial neural networks[J]. Neuron,
2021, 109(17): 2727–2739.
[43] RUMELHART D E, HINTON G E, WILLIAMS R J. Learning internal representations by error
propagation[M]//Parallel Distributed Processing: Explorations in the Microstructure of Cognition:
FoundationsCalifornia Univ San Diego La Jolla Inst for Cognitive Science. MIT Press, 1987: 318-362.
[44] LILLICRAP T P, COWNDEN D, TWEED D B, AKERMAN C J. Random synaptic feedback weights support
error backpropagation for deep learning[J]. Nature communications, 2016, 7(1): 1–10.
[45] MOVELLAN J R. Contrastive Hebbian learning in the continuous Hopfeld model[M]. Connectionist models.
Elsevier. 1991: 10–17.
[46] DETORAKIS G, BARTLEY T, NEFTCI E. Contrastive Hebbian learning with random feedback weights [J].
Neural Networks, 2019, 114: 1–14.
[47] MILLIDGE B, SONG Y, SALVATORI T, et al. Backpropagation at the Infnitesimal Inference Limit of Energy-
Based Models: Unifying Predictive Coding, Equilibrium Propagation, and Contrastive Hebbian Learning[EB/
OL]. (2022-08-03)[2022-12-01]. https://arxiv.org/abs/2206.02629.
[48] KERMICHE N. Contrastive hebbian feedforward learning for neural networks[J]. IEEE transactions on
neural networks and learning systems, 2019, 31(6): 2118–2128.
[49] SCELLIER B, BENGIO Y. Equilibrium propagation: Bridging the gap between energy-based models and
backpropagation[J]. Frontiers in computational neuroscience, 2017, 11: 24.
[50] LABORIEUX A, ERNOULT M, SCELLIER B, et al. Scaling equilibrium propagation to deep convnets by
drastically reducing its gradient estimator bias[J]. Frontiers in neuroscience, 2021, 15: 129.
[51] O'CONNOR P, GAVVES E, WELLING M. Initialized equilibrium propagation for backprop-free training[C]//
International Conference on Learning Representations. ICRL, 2018.
[52] NøKLAND A. Direct feedback alignment provides learning in deep neural networks[J]. Advances in neural
information processing systems, 2016, 29.
[53] LEE D H, ZHANG S, FISCHER A, et al. Difference target propagation[C]//Joint european conference on
machine learning and knowledge discovery in databases. Springer. 2015: 498–515.
[54] ORORBIA A G, MALI A. Biologically motivated algorithms for propagating local target representations[C]//
Proceedings of the aaai conference on artifcial intelligence. AAAI, 2019: 4651–4658.
[55] YAMINS D L K, DICARLO J J. Using goal-driven deep learning models to understand sensory cortex[J].
Nature neuroscience, 2016, 19(3): 356–365.
[56] COSTA R, ASSAEL I A, SHILLINGFORD B, et al. Cortical microcircuits as gated-recurrent neural networks [J].
Advances in neural information processing systems, 2017, 30.
[57] GEORGE D, HAWKINS J. Towards a mathematical theory of cortical micro-circuits[J]. PLoS computational
biology, 2009, 5(10): e1000532.
[58] BRAVER T, COHEN J D, SERVAN-SCHREIBER D. A computational model of prefrontal cortex function[J].
Advances in neural information processing systems, 1994, 7.
[59] WANG J X, KURTH-NELSON Z, KUMARAN D, et al. Prefrontal cortex as a meta-reinforcement learning system [J].
Nature neuroscience, 2018, 21(6): 860–868.
[60] HAFNER D, IRPAN A, DAVIDSON J, et al. Learning hierarchical information flow with recurrent neural
modules[J]. Advances in Neural Information Processing Systems, 2017, 30.
[61] REMMELZWAAL L A, MISHRA A K, ELLIS G F R. CTNN: Corticothalamic-inspired neural network[EB/OL].
(2020-04-13)[2022-12-01]. https://arxiv.org/abs/1910.12492.
[62] AKOPYAN F, SAWADA J, CASSIDY A, et al. Truenorth: Design and tool flow of a 65 mw 1 million neuron
programmable neurosynaptic chip[J]. IEEE transactions on computer-aided design of integrated circuits and
systems, 2015, 34(10): 1537–1557.
[63] DAVIES M, SRINIVASA N, LIN T H, et al. Loihi: A neuromorphic manycore processor with on-chip learning [J].
Ieee Micro, 2018, 38(1): 82–99.
[64] PAINKRAS E, PLANA L A, GARSIDE J, et al. SpiNNaker: A 1-W 18-core system-on-chip for massively-parallel
neural network simulation[J]. IEEE Journal of Solid-State Circuits, 2013, 48(8): 1943–1953.
[65] HEIDARPUR M, AHMADI A, AHMADI M, et al. CORDIC-SNN: On-FPGA STDP learning with izhikevich

38
从认知脑的计算模拟到类脑人工智能

neurons[J]. IEEE Transactions on Circuits and Systems I: Regular Papers, 2019, 66(7): 2651–2661.
[66] GOMAR S, AHMADI A. Digital multiplierless implementation of biological adaptive-exponential neuron
model[J]. IEEE Transactions on Circuits and Systems I: Regular Papers, 2013, 61(4): 1206–1219.
[67] WU J, ZHAN Y, PENG Z, et al. Efficient design of spiking neural network with STDP learning based on fast
CORDIC[J]. IEEE Transactions on Circuits and Systems I: Regular Papers, 2021, 68(6): 2522–2534.
[68] LAMMIE C, HAMILTON T J, VAN SCHAIK A, et al. Efficient FPGA implementations of pair and triplet-based
STDP for neuromorphic architectures[J]. IEEE Transactions on Circuits and Systems I: Regular Papers, 2018,
66(4): 1558–1570.
[69] AMUNTS K, EBELL C, MULLER J, et al. The human brain project: creating a European research
infrastructure to decode the human brain[J]. Neuron, 2016, 92(3): 574-581.
[70] AMUNTS K, MOHLBERG H, BLUDAU S, et al. Julich-Brain: A 3D probabilistic atlas of the human brain’s
cytoarchitecture[J]. Science, 2020, 369(6506): 988-992.
[71] SCHIRNER M, DOMIDE L, PERDIKIS D, et al. Brain simulation as a cloud service: The Virtual Brain on
EBRAINS[J]. NeuroImage, 2022, 251: 118973.
[72] YIN W, BRITTAIN D, BORSETH J, et al. A petascale automated imaging pipeline for mapping neuronal
circuits with high-throughput transmission electron microscopy[J]. Nature Communications, 2020, 11(1): 4949.
[73] LEE W C, BONIN V, REED M, et al. Anatomy and function of an excitatory network in the visual cortex[J].
Nature, 2016, 532(7599): 370-374.
[74] BAE J A, BAPTISTE M, BODOR A L, et al. Functional connectomics spanning multiple areas of mouse visual
cortex [EB/OL]. (2021-08-09)[2022-12-02]. https://www.biorxiv.org/content/10.1101/2021.07.28.454025v2.
[75] IGARASHI J, YAMAURA H, YAMAZAKI T. Large-Scale Simulation of a Layered Cortical Sheet of Spiking
Network Model Using a Tile Partitioning Method[J]. Frontiers in Neuroinformatics, 2019, 13: 71.
[76] YAMAURA H, IGARASHI J, YAMAZAKI T. Simulation of a Human-Scale Cerebellar Network Model on the K
Computer [J]. Frontiers in Neuroinformatics, 2020, 14: 16.
[77] YAMAZAKI T, IGARASHI J, YAMAURA H. Human-scale Brain Simulation via Supercomputer: A Case Study
on the Cerebellum[J]. Neuroscience, 2021, 462: 235-246.
[78] GUTIERREZ C E, SKIBBE H, MUSSET H, et al. A Spiking Neural Network Builder for Systematic Data-to-
Model Workflow[J]. Frontiers in Neuroinformatics, 2022, 16: 855765.
[79] FELDOTTO B, EPPLER J M, JIMENEZ-ROMERO C, et al. Deploying and Optimizing Embodied Simulations
of Large-Scale Spiking Neural Networks on HPC Infrastructure[J]. Frontiers in neuroinformatics, 2022, 16.
[80] TANIGUCHI T, YAMAKAWA H, NAGAI T, et al. A whole brain probabilistic generative model: Toward
realizing cognitive architectures for developmental robots[J]. Neural Networks, 2022, 150: 293-312.
[81] GUTIERREZ C E, ZHE S, YAMAURA H, et al. Simulation of resting-state neural activity in a loop circuit of
the cerebral cortex, basal ganglia, cerebellum, and thalamus using NEST simulator[C]//the The 30th Annual
Conference of the Japanese Neural Network Society. Japanese Neural Network Society, 2020.
[82] ZHE S, MORTEZA H, JUN I. Spatial summation of excitatory and inhibitory signals in a model of the rodent
primary somatosensory cortex[C]//The 29th Annual Conference of the Japanese Neural Network Society.
Japanese Neural Network Society, 2019.
[83] MORTEZA H, ZHE S, JUN I. Switches of activation in hierarchical inhibitory circuitry in simulated primary
motor cortex [C]. The 29th Annual Conference of the Japanese Neural Network Society, 2019.
[84] PEI J, DENG L, SONG S, et al. Towards artifcial general intelligence with hybrid Tianjic chip architecture[J].
Nature, 2019, 572(7767): 106-111.
[85] MA S, PEI J, ZHANG W, et al. Neuromorphic computing chip with spatiotemporal elasticity for multi-
intelligent-tasking robots [J]. Science Robotics, 2022, 7(67): eabk2948.
[86] FANG W, CHEN Y, DING J, et al. SpikingJelly[EB/OL]. (2020)[2022-12-02]. https://github.com/fangwei123456/
spikingjelly.
[87] SHEN J, MA D, GU Z, et al. Darwin: a neuromorphic hardware co-processor based on spiking neural networks [J].
Science China Information Sciences, 2016, 59(2): 1-5.
[88] MA D, SHEN J, GU Z, et al. Darwin: A neuromorphic hardware co-processor based on spiking neural networks [J].
Journal of Systems Architecture, 2017, 77: 43-51.
[89] ZENG Y, ZHAO D, ZHAO F, et al. BrainCog: A Spiking Neural Network based Brain-inspired Cognitive
Intelligence Engine for Brain-inspired AI and Brain Simulation[EB/OL]. (2022-07-18)[2022-12-02]. https://arxiv.
org/abs/2207.08533.
[90] CARNEVALE N T, HINES M L. The NEURON book[M]. Cambridge University Press, 2006.
[91] GOODMAN D F M, BRETTE R. The brian simulator[J]. Frontiers in neuroscience, 2009: 26.
[92] STIMBERG M, BRETTE R, GOODMAN D F M. Brian 2, an intuitive and efficient neural simulator[J]. Elife, 2019, 8:
e47314.
[93] WANG C, JIANG Y, LIU X, et al. A Just-In-Time Compilation Approach for Neural Dynamics Simulation[C]//
International Conference on Neural Information Processing. Springer. 2021: 15–26.
[94] GEWALTIG M O, DIESMANN M. Nest (neural simulation tool)[J]. Scholarpedia, 2007, 2(4): 1430.
[95] BEKOLAY T, BERGSTRA J, HUNSBERGER E, et al. Nengo: a Python tool for building large-scale functional
brain models[J]. Frontiers in neuroinformatics, 2014, 7: 48.
[96] HAZAN H, SAUNDERS D J, KHAN H, et al. Bindsnet: A machine learning-oriented spiking neural networks
library in python[J]. Frontiers in neuroinformatics, 2018, 12: 89.
[97] HONG C, YUAN M, ZHANG M, et al. SPAIC: A Spike-based Artifcial Intelligence Computing Framework[EB/
OL]. (2022-07-26)[2022-12-02]. https://arxiv.org/abs/2207.12750.
[98] 武汉光电国家实验室. HUST Visible Brain-Wide Network[2022-12-02]. http://vbn.org.cn.
[99] FENG H, ZENG Y, LU EM. Brain-Inspired Affective Empathy Computational Model and Its Application on
Altruistic Rescue Task[J]. Frontiers in Computational Neuroscience. 2022, 16: 784967.
[100] FENG H, ZENG Y. A brain-inspired robot pain model based on a spiking neural network[J]. Frontiers in
Neurorobotics, 2022, 16: 1025338.

39
综述分析
AI-VIEW 2022 年第 6 期

曾 毅
中国科学院自动化研究所研究员、脑图谱与类脑智能实验室副主任、
类脑认知智能研究组组长;中国科学院大学岗位教授,博士生导师;
中国科学院脑科学与智能技术卓越创新中心研究员。主要研究方向为
类脑人工智能以及人工智能哲学与伦理。
# 共同第一作者 * 通信作者 email:yi.zeng@ia.ac.cn

张 倩
中国科学院自动化研究所类脑认知智能研究组副研究员。主要研究方
向为类脑认知计算建模及生物启发的脑模拟。
# 共同第一作者

赵菲菲
中国科学院自动化研究所类脑认知智能研究组副研究员。主要研究方
向为类脑决策、发育,以及演化脉冲神经网络。
# 共同第一作者

赵东城
中国科学院自动化研究所类脑认知智能研究组助理研究员。主要研究
方向为脑启发的学习模型以及脉冲神经网络训练算法。
# 共同第一作者

李金东
中国科学院自动化研究所硕士生在读。主要研究方向为脉冲神经网络
硬件加速与神经拟态硬件。

申国斌
中国科学院自动化研究所博士生在读。主要研究方向为生物启发的学
习算法以及脉冲神经网络结构设计与训练策略。

毕韦达
中国科学院自动化研究所类脑认知智能研究组工程师。主要负责脑模
在线阅读(节选) 拟可视化。

40

You might also like