江苏网信网 > 长三角网信 > 浙江网信 > 正文
含上亿神经元,可意念打字 浙江研制出我国首台类脑计算机
2020-09-04 09:47:00  来源:浙江在线-浙江日报

朝着计算机念一句“春眠不觉晓”,它就能凭着“记忆”很快接着念出“处处闻啼鸟……”朝它喷杀虫剂,它会显示出“注意有毒气体”的感知反馈……9月1日,记者从浙江大学了解到,这台能像人一样“回忆”、“闻”气味的计算机,正是浙江大学联合之江实验室共同研制出的我国首台基于自主知识产权类脑芯片的类脑计算机(Darwin Mouse)。

这台类脑计算机是目前国际上神经元规模最大的类脑计算机。它包含792颗浙江大学研制的达尔文2代类脑芯片,支持1.2亿脉冲神经元、近千亿神经突触,神经元数量规模相当于一个小鼠大脑。相比传统计算机由于数据储存和计算分离而产生的高能耗问题,该类脑计算机的典型运行功耗只需350瓦至500瓦。

与此同时,团队还为类脑计算机研制了“管家婆”——达尔文类脑操作系统(DarwinOS),用以实现对类脑计算机硬件资源的有效管理与调度,支撑类脑计算机的运行与应用。

这台类脑计算机到底“聪明”到怎样的程度?类脑计算机如何实现像人一样思考?其未来发展方向又在哪里?带着这些疑问,我们走近这台浙江造的神奇“大脑”。

像大脑

一样“思考”

“滴,滴,滴……”记者在实验现场看到,3台外形相似的机器人正合作开展抗洪救险任务。1号机器人凭借自带摄像头在场地巡逻,当发现堤坝缺口后,就呼叫负责工程的3号机器人前来修坝,同时搜寻受伤人员,当发现倒在地上的人体模型后,又呼叫负责救援的2号机器人……不同于现有机器人的是,这几个机器人是在类脑计算机的控制下通过语音开展移动指令,并接受任务分配。

“这台类脑计算机是像搭积木一样搭起来的。每颗芯片上有15万个神经元,每4颗芯片做成一块板子,若干块板子再连接起来成为一个模块。”项目研究骨干金孝飞说。

2015年和2019年浙江大学分别研制成功达尔文1代和达尔文2代类脑计算芯片,用芯片去模拟大脑神经网络的结构与功能机制,在图像、视频、自然语言的模糊处理中具有优势。而这次的成果是将数百颗达尔文2代类脑计算芯片集成在3台1.6米高的标准服务器机箱中,从而形成一台强大的机架式类脑计算机。

而要让这么多神经元能够互联并且可拓展从而实现高效的联动组合,同时要把杂乱无章的信息流有序分配到对应的功能脑区,依靠的正是“管家婆”——达尔文类脑操作系统(DarwinOS)。“目前达尔文类脑操作系统的功能任务切换时间达微秒级,可支持亿级类脑硬件资源管理。”项目研究骨干吕攀说。

未来,类脑计算机既可用于生活中各种智能任务的处理,开拓人工智能的应用场景;也可用于神经科学、脑科学研究,从而为神经科学家提供更快更大规模的仿真工具,提供探索大脑工作机理的新实验手段。

目前,浙江大学与之江实验室的科研人员基于该类脑计算机已经实现了多种智能任务。除了抗洪抢险场景下多个机器人的协同工作,科研人员还用类脑计算机模拟了多个不同脑区,建立了丘脑外侧膝状核的神经网络模型,仿真了不同频率闪动的视觉刺激时该脑区神经元的周期性反应;借鉴海马体神经环路结构和神经机制构建了学习-记忆融合模型,实现音乐、诗词、谜语等的时序记忆功能;实现了脑电信号的稳态视觉诱发电位实时解码,可“意念”打字输入。

颠覆传统

计算模式

从数值计算到脉冲计算,从冯·诺依曼架构到神经拟态架构,类脑计算机的出现,颠覆了传统的计算模式和体系架构。

当我们在键盘上敲打出一串字符的时候,计算机就已经将它转化成为“0”和“1”这种可以被机器识别的二进制语言,并通过数据线从中央处理器(CPU)的暂存器转移到其他存储单元……传统的计算机在处理器和存储器之间要进行多次数据交换。其发展之初采用以数值计算见长的冯·诺依曼架构,也就是以数字加减乘除的方式来进行信息架构。随着摩尔定理逐渐失效,冯·诺依曼架构带来的局限日益明显,存储墙、功耗墙、智能提升等问题,让当前计算机发展面临重大挑战。

如“存储墙”问题就是在冯·诺依曼架构中数据存储和计算的分离中产生的。“这就好比信息存储在甲地,要计算的时候就把信息搬到乙地去,计算好了再搬回甲地去。但搬运的速度要远远低于计算的速度,反而让搬运本身成为关键瓶颈。”浙江大学计算机科学与技术学院教授潘纲说,这种计算模式制约了以大数据为代表的计算性能提升。

虽然计算机运行一个简单指令,数据来回跑动所需要的能耗很低,但对于人工智能等需要密集计算的任务而言,短时间内几千万次甚至几亿次的运算量,汇聚在一起也会变成一片“汪洋大海”。因此,这又让传统计算机的“功耗墙”问题冒了出来。

此外,数据驱动的智能算法需要海量样本和密集计算,但举一反三、自我学习等高级智能能力比较差,和人的智能相比依然差得很远。

如何突破现有计算运行方式导致的计算机瓶颈?

我们的身体早就透露了答案。人的大脑融存储和处理的功能于一体,其速度和效率远高于计算机。在处理如思辨寓言蕴含的哲理等复杂信息时,人脑的学习能力也是计算机无法企及的。

因此全球科学家再次将目光瞄准到模仿生物大脑这个最初的梦想。通过数字及模拟电路等硬件方式器件模拟人脑神经网络的功能和连接关系,从而在有限的物理空间和能耗条件下构造出类似人脑的神经网络系统。

潘纲介绍说,用硬件及软件模拟神经大脑网络的结构与运行机制,构造一种全新的人工智能系统,这种颠覆传统计算机架构的新型计算模式,被称为类脑计算。其特点在于存算一体、事件驱动、高度并行等,“是解决人工智能等计算难题的重要路径之一”。

类脑芯片的工作原理类似于生物的神经元行为,通过脉冲传递信号,信号来的时候启动,没有信号就休息,实现高度并行,效率提升的目标。

下一站

在哪儿?

1.6米高,三个标准机柜,几个人都合抱不过来……在现场矗立的类脑计算机,让人不禁感叹是个“巨无霸”。别看现在的类脑计算机是个“大块头”,在1946年世界上诞生的第一台计算机“埃尼阿克(ENIAC)” 28吨的体重面前,它还算个“小孩子”。科学家们表示,如同从“埃尼阿克”到平板电脑,随着类脑芯片和其他硬件的更新迭代,类脑计算机体积缩小指日可待。未来要想迈入 “智能时代”,不能靠传统计算机继续“烧脑”。类脑计算机将植入手机、机器人,为城市生活带来新的智能服务体验。

硬件更新了,那么软件呢?科学家们将下一步的研究焦点放到了类脑计算机的智能化上。

目前,市面上的传感器输入的信号还是以数字为主,应用到类脑计算机上,要加一个编码层,将信号转换成脉冲式。在这个过程中信息有丢失和损伤的风险,会在一定程度上降低计算机的功效。新式的仿脑传感器,也将有助于计算机“聪明劲儿”的提升。

在科学家们的设想中,类脑计算机的智能未来将接近人脑乃至某些方面超越人脑。它可以从科学家创造的虚拟环境中获取知识,在现实环境中接受各种信息的熏陶,甚至是用机器人的身体和蝴蝶起舞实现互动。通过对它进行信息刺激、训练和学习,类脑计算机有机会获得人脑类似的智能,实现智能培育和进化。在神经元和突触的自我调节的过程中,计算机进行学习、会话、推理等类人运算,实现更高级的智能。

近年来,国内外对于类脑计算机的研究一直在持续进展中。从2015年德国海德堡大学研发的拥有400万神经元规模的BrainScales,到美国IBM研发的6400万神经元规模的Blue Raven,再到今年3月份美国Intel的1亿神经元规模的Pohiki Springs,直至如今的Darwin Mouse,世界各国的科学家们正在不断刷新类脑计算系统的神经元规模上限。

当前,类脑计算研究还处于初级阶段,无论在规模上,还是在智能化程度上,都无法和真正的人脑相比。

“我们希望能够像生物进化一样,不断地让达尔文系列类脑计算机朝着人类智能的方向发展,以超低功耗提供更强的人工智能。”潘纲说,随着神经科学发展和类脑计算机的系统软件、工具链及算法的成熟,相信有朝一日科学家将能让类脑计算机像冯·诺依曼架构计算机一样通用化,真正像大脑一样高效工作,与冯·诺依曼架构并存与互补去解决不同的问题。只是当下,类脑计算机尚有很长一段路要走。(见习记者 何冬健 记者 黄慧仙 通讯员 柯溢能 吴雅兰)

编辑:韩震霞
版权所有:中共江苏省委网络安全和信息化委员会办公室
备案号:苏ICP备20035922号
技术支持:中国江苏网