切换到宽版
  • 11阅读
  • 2回复

[智能应用]类脑计算,通往通用人工智能的一扇新大门 [复制链接]

上一主题 下一主题
在线姜谷粉丝

UID: 1569053

精华: 2
级别: 玉清道君
 

发帖
164214
金币
457763
道行
20030
原创
766
奖券
341
斑龄
0
道券
30
获奖
0
座驾
设备
摄影级
在线时间: 19880(小时)
注册时间: 2012-06-21
最后登录: 2025-11-18
只看楼主 倒序阅读 使用道具 楼主  发表于: 前天 10:41
仅凭2000瓦功耗,就可唤醒20亿神经元!浙江大学脑机智能全国重点实验室研制的新一代神经拟态类脑计算机“悟空”(Darwin Monkey),正在为机器点亮一条通向智能的新路。

新一代神经拟态类脑计算机“悟空”(Darwin Monkey)
“悟空”是怎样诞生的?如何用计算去模拟大脑?我国的脑机智能已经进化到何种程度?我们带着这些问题,走进浙江大学脑机智能全国重点实验室,寻找或许会影响人类未来的答案。
多学科交叉
脑机智能研究正在不断突破
“宇宙中已知最高效、最神秘的‘超级计算机’就是我们人类大脑。”浙江大学脑机智能全国重点实验室主任潘纲教授告诉封面新闻记者,大脑是由近千亿个神经元细胞通过百万亿计的突触连接构成,形成了人类智能活动的“硬件”基础。
“我们实验室主要研究脑机智能,聚焦于两个大方向。”潘纲说,“一是如何将大脑与机器或人工智能连接起来;二是如何用计算去模拟大脑。”
实验室里,类脑计算团队的科研人员正在紧张忙碌着。他们以模拟大脑的神经结构和工作原理为核心,试图使计算系统能够具备类似人类的感知、推理和学习能力。
据潘纲介绍,目前团队里汇聚了计算机、人工智能、微电子、光学、生物医学工程等信息技术领域专家,以及神经科学、基础医学、心理、数学、管理学、哲学等相关领域学者。
“这个领域确实涉及多个学科的交叉。”潘纲表示,“我们借助浙江大学综合学科优势,汇聚这些学科的力量进行协作研究。”在他的带领下,这支由100多位科研骨干组成的交叉团队,正在脑机接口与类脑计算领域不断突破。


研究交流。(受访者供图)
实验室拥有的中国脑库,是浙江大学多年前就开始布局的项目。“这一脑库由神经科学领域的段树民院士牵头,专门收集和研究大脑标本,目前已有700多个标本。”
中国批准的两个脑库,一个在协和,另一个就在浙大。此外,实验室还可以将大脑数字化,支持更广泛的研究。这一独特资源为脑科学与类脑智能研究提供了宝贵的基础条件。
传统AI陷入算力困境
未来如何让通用人工智能如人脑般聪明又省电?
人工智能正高歌猛进,但其高功耗与强数据依赖的瓶颈也日益凸显。当前主流的大模型技术依赖海量数据和巨大算力支撑,训练一个模型所需的电力足以媲美一个小型城市的耗电量。
潘纲指出:“当前的大模型是大数据和大算力催生的规模驱动型智能。”这种模式不仅成本高昂,且不够灵活,已成为制约AI迈向更高智能水平的重要瓶颈。
与此形成鲜明对比的是,人脑仅凭20瓦的功率,便能演绎举一反三的智慧,实现终身学习的奇迹。如何让通用人工智能如人脑般聪明又省电,已成为全球科研界追逐的终极梦想。
“类脑的大模型代表的是‘大脑启发’的内在结构驱动型智能。它试图通过模仿智能的本源,大脑的架构和工作原理,从底层重构智能模型,探索解决通用人工智能‘学习能力弱’和‘思考太费电’的问题。”潘纲告诉封面新闻记者。
8月2日,浙江大学脑机智能全国重点实验室宣布成功研制“悟空”神经拟态类脑计算机。这台引人瞩目的机器由15台刀片式神经拟态类脑服务器组成,每一台服务器内部集成了64颗达尔文3代类脑计算芯片,总计960颗芯片。

达尔文3代类脑计算芯片。(受访者供图)
“悟空”的突破不仅在于规模,更在于其仿生的工作原理,类脑计算模式在处理复杂任务时展现出显著能效优势。潘纲解释道:“在系统结构上,它模仿大脑的神经元间的连接方式和拓扑结构。在工作机理上,它仿照大脑工作方式,将计算机的数值计算变成脉冲方式计算。”
“悟空”的诞生之路:
从“线虫”到“猕猴”的进化
“悟空”的问世并非一蹴而就,而是浙江大学类脑计算团队十年磨一剑的成果。
潘纲告诉封面新闻记者,这条追梦之路始于2015年诞生的“达尔文1代”类脑芯片。尽管这款采用180nm工艺的芯片仅具备2048个神经元,规模如线虫般微小,却成功验证了脉冲神经网络硬件化的基本原型。
四年后,该团队研制的“达尔文2代”芯片将神经元规模提升至15万,跃升至果蝇水平,实现了从动态图像、语音识别到脑电信号识别的多项突破。
2023年初,团队与之江实验室联合研制的“达尔文3代”芯片取得突破性进展,单颗芯片支持超过235万神经元,媲美壁虎神经元规模,并初具自主学习的能力。
2025年,“悟空”横空出世,这个拥有22亿脉冲神经元和千亿突触的数字大脑,神经元规模已接近猕猴大脑,超过英特尔研制的Hala point系统,成为目前国际上神经元规模最大的神经拟态类脑计算系统。
“悟空”的刀片式服务器中有一个团队自主研发的“晶上系统(SoW)”,包含一个晶圆级类脑芯片。研发途中,团队一度在晶圆级系统的集成环节遭遇“翘曲”难题。
潘纲回忆道:“第一代的验证型晶圆级系统因为面积太大,产生一定程度变形,即使是微小的起伏,都会导致电路连接悬空,供电中断。”
转机来自生活中的偶然发现——团队从弹簧的伸缩特性中获得灵感,设计出带弹簧的顶针结构,以“柔”克“刚”解决了这一难题。
类脑计算
通往通用人工智能的新路径
随着“悟空”的问世和中国脑机接口产业的蓬勃发展,一条通向通用人工智能的新路径正在显现。潘纲强调,“类脑计算不是终点,而是通往通用人工智能的一扇新大门。”
“悟空”的研制,本质上是一场双向奔赴的认知革命:它既借鉴大脑智慧创造机器智能,也通过机器智能反哺对人类智慧的理解。
全球来看,美国以Neuralink、Synchron、Precision Neuroscience等公司引领全球脑机接口产业。而中国以芯智达、博睿康科技、脑虎科技等为代表的各企业持续突破,陆续开展中国首例人体植入试验。中美在研究进展、专利数量、企业规模和融资规模上领先全球,形成第一梯队。
在潘纲看来,类脑计算是一条充满不确定性的探索之路。很早以前,人工智能之父图灵就想过用模拟大脑的方式去构建计算机,当时因为各种条件所限,这个想法并未实现。
“现在,我们想尝试一条不一样的思路。”潘纲说,尽管这条路确实充满不确定性,但如果没有人去探索,这个领域就永远不会有发展。“悟空”计算机的问世,意味着中国在智能计算的底层架构上掌握了重要主动权,为全球AI发展提供了具有生物合理性的中国方案。
山庄提示: 道行不够,道券不够?---☆点此充值☆
 
我有我可以
在线姜谷粉丝

UID: 1569053

精华: 2
级别: 玉清道君

发帖
164214
金币
457763
道行
20030
原创
766
奖券
341
斑龄
0
道券
30
获奖
0
座驾
设备
摄影级
在线时间: 19880(小时)
注册时间: 2012-06-21
最后登录: 2025-11-18
只看该作者 沙发  发表于: 前天 10:44
类脑计算,作为借鉴生物大脑信息处理机制的新型计算范式,正成为通往通用人工智能(AGI)的关键路径。其核心逻辑在于通过模仿大脑的低功耗、大规模并行、自学习与自适应特性,解决传统人工智能(如深度学习、大模型)的固有瓶颈,为实现能适应复杂环境、处理多样任务的通用智能提供新的技术框架。

一、传统AI的瓶颈:AGI的“拦路虎”
传统人工智能(如基于Transformer的大模型)的发展高度依赖海量数据、高算力,且存在以下致命缺陷:

高功耗:训练GPT-4等大模型需消耗数百万千瓦时电量,而人脑仅用20瓦就能完成复杂认知任务;
数据依赖:需大量标注数据才能学习,无法像人类一样从少量样本中“举一反三”;
通用性不足:擅长特定任务(如文本生成、图像识别),但难以跨领域适应(如从文本到物理世界的决策);
可解释性差:决策过程像“黑箱”,无法像人类一样给出逻辑清晰的推理。
二、类脑计算的核心优势:向大脑“取经”
类脑计算的本质是模仿大脑的结构与功能,其关键特性直接针对传统AI的瓶颈:

低功耗:采用脉冲神经网络(SNN),通过神经元的“稀疏放电”(仅当信号超过阈值时激活)模拟大脑的信息传递,能耗比传统神经网络低1-2个数量级;
大规模并行:借鉴大脑860亿神经元、百万亿突触的并行连接,类脑系统能同时处理多模态信息(视觉、语音、触觉),实现“同步感知-决策”;
自学习与自适应:模仿大脑的“可塑性”(突触强度随经验调整),类脑算法(如无监督学习、迁移学习)能从少量数据中自主学习,适应新环境;

可解释性:因结构模仿大脑认知过程(如视觉皮层的分层处理),决策过程更接近人类逻辑,便于理解与信任。
三、类脑计算的关键技术:构建“人造大脑”
类脑计算的实现依赖三大核心技术:

脉冲神经网络(SNN):
与传统人工神经网络(ANN)的“数值计算”不同,SNN采用“脉冲信号”(类似神经元的放电)进行通信,更接近生物大脑的信息处理方式。例如,SNN能像人类视觉系统一样,优先处理运动物体(如高速行驶的汽车),而忽略静态背景,实现更高效的视觉感知。

神经形态芯片:
突破冯·诺依曼架构的“计算-存储分离”瓶颈,将计算单元(神经元)与存储单元(突触)整合,实现“存算一体”。例如,IBM的TrueNorth芯片(100万个神经元、2.56亿个突触)功耗仅65毫瓦,能实时处理视觉与语音任务;清华大学的“天机”芯片则实现了“异构融合”(同时支持SNN与ANN),兼顾通用计算与类脑智能。

类脑算法:
基于脑认知机制(如海马体的记忆存储、前额叶皮层的决策),开发无监督学习、迁移学习、因果推理等算法。例如,类脑算法能像人类婴儿一样,通过“观察-尝试”自主学习抓握物体,无需大量标注数据。

四、类脑计算通向AGI的路径:从“模仿”到“超越”
类脑计算的终极目标是构建具备通用智能的“人造大脑”,其通向AGI的路径可分为三个阶段:

结构模仿:通过神经形态芯片、SNN等技术,复制大脑的物理结构(如神经元、突触连接),实现“形似”;
功能逼近:通过类脑算法训练,使系统具备人类的基本认知能力(如感知、记忆、推理),实现“神似”;
智能超越:通过“进化学习”(如遗传算法、强化学习),让系统自主优化结构与功能,最终实现能适应各种环境、处理各种任务的通用智能(AGI)。
五、当前进展:从实验室到应用的“突破”
近年来,类脑计算的研究已从学术原型走向实际应用:

大规模类脑系统:浙江大学的“悟空”类脑计算机,搭载960颗达尔文3代芯片,拥有20亿神经元、千亿突触,规模接近猕猴大脑,能模拟脑疾病(如阿尔茨海默病)的神经环路,为脑科学研究提供“数字实验室”;
产业应用:类脑视觉芯片已用于智能安防(如识别高速运动物体),类脑语音芯片用于智能音箱(低功耗实时语音识别),类脑算法用于自动驾驶(实时决策与环境适应);
政策支持:中国“脑科学与类脑研究”重大项目、美国BRAIN计划、欧盟人脑计划等,均将类脑计算列为核心方向,推动技术突破与产业落地。
结语:类脑计算——AGI的“新大门”
类脑计算的价值,在于它从智能的本源(大脑)出发,为AGI提供了一条“低功耗、高通用、可解释”的技术路径。尽管当前仍面临脑机理认知不足、类脑算法精度不够等挑战,但随着脑科学与计算技术的融合,类脑计算有望逐步突破传统AI的瓶颈,最终实现能像人类一样“思考、学习、适应”的通用人工智能。

正如科学家所言:“如果说传统AI是‘用计算机模拟智能’,那么类脑计算就是‘用智能模拟计算机’——它不是对人类智能的‘复制’,而是对智能本质的‘重新发现’。”这条路径,或许就是AGI的“最后一公里”。
如何不发帖就快速得到金币道行
 
我有我可以
在线jjybzxw

UID: 551814


发帖
203709
金币
548865
道行
2004
原创
2435
奖券
3180
斑龄
40
道券
1167
获奖
0
座驾
设备
摄影级
在线时间: 45060(小时)
注册时间: 2008-10-01
最后登录: 2025-11-19
只看该作者 板凳  发表于: 前天 17:18
浙江大学脑机智能全国重点实验室研制的新一代神经拟态类脑计算机“悟空”,是中国在类脑计算与人工智能交叉领域取得的一项重大突破。该系统以“类脑”为核心理念,模仿人脑神经网络的结构与工作原理,实现了在能效、实时性、可扩展性和任务适应性等方面的显著性能提升。以下是“悟空”类脑计算机在技术层面的几项突破性性能,分点详述如下:

---

一、超高并行性与神经元模拟规模:逼近生物大脑的复杂度
“悟空”系统集成了超过1亿个脉冲神经元(Spiking Neural Neurons)和近千亿个突触连接,其规模已接近小型哺乳动物大脑的神经网络复杂度。相较于传统冯·诺依曼架构计算机,“悟空”采用事件驱动的脉冲神经网络(SNN)模型,能够在极低功耗下实现大规模并行信息处理,具备更强的动态感知与自适应学习能力。

该系统不仅在数量上突破了此前国内外类脑计算机的模拟上限(如IBM TrueNorth、Intel Loihi),更在神经单元的生物逼真度上进行了优化,支持多种神经动力学模型(如Izhikevich、LIF等),为认知建模与脑疾病仿真提供了高保真实验平台。

---

二、超低功耗运行:实现“绿色AI”的典范
“悟空”在能效方面表现卓越,其每秒完成百万亿次神经脉冲运算的功耗仅为数百瓦级别,能效比达到传统GPU集群的上千倍。这一特性源于其异步事件驱动机制——仅在神经元“放电”时才消耗能量,避免了传统AI芯片中持续的数据搬运与重复计算。

举例而言,在处理视觉识别任务时,“悟用”类脑系统可通过动态稀疏编码,仅响应图像中的变化区域(如运动物体),从而将能耗降低至静态帧处理方式的1/50以下。这种“按需计算”模式使其特别适用于边缘智能、可穿戴设备与无人系统等对能耗敏感的应用场景。

---

三、实时类脑感知与闭环控制能力:迈向“具身智能”
“悟空”首次实现了多模态感知信号(视觉、听觉、触觉)与执行系统的毫秒级闭环交互,具备类似生物体的实时反应能力。其内置的类脑感知芯片可直接接收来自仿生眼、电子耳等传感器的脉冲数据流,并通过片上学习算法进行即时决策与反馈输出。

例如,在机器人控制实验中,“悟空”驱动的机械臂可在20毫秒内对突发障碍做出避障动作,响应速度接近人类脊髓反射水平。这种“感知—决策—行动”一体化架构,标志着我国在构建真正意义上的“具身智能”(Embodied Intelligence)系统方面迈出关键一步。

---

四、支持在线学习与突触可塑性:突破传统AI的僵化瓶颈
不同于依赖大规模离线训练的传统深度学习模型,“悟空”引入了生物启发的突触可塑性机制,如STDP( Spike-Timing-Dependent Plasticity)和Hebbian学习规则,支持系统在运行过程中持续学习新知识、遗忘无关信息,并适应环境变化。

这意味着“悟空”可以在没有预先标注数据的情况下,通过与环境互动自主优化行为策略。例如,在未知环境中导航的机器人搭载“悟空”系统后,可在数分钟内建立空间记忆地图并规划最优路径,展现出接近啮齿类动物的空间认知能力。这一特性使其在自动驾驶、灾难救援等动态不确定场景中具有巨大潜力。

---

五、软硬件协同架构创新:构建开放类脑生态
“悟空”并非单一芯片或设备,而是一套完整的类脑计算生态系统,包括专用神经拟态芯片、分布式互连架构、类脑操作系统“达尔文”(DarwinOS)以及高层编程框架(如BrainStudio)。其模块化设计支持从单板系统到千节点集群的灵活扩展,满足从科研实验到工业部署的不同需求。

尤为关键的是,该系统支持将传统ANN(人工神经网络)自动转换为SNN模型,并提供可视化调试工具链,极大降低了类脑算法开发门槛。目前已有多个高校与研究机构基于“悟空”平台开展脑科学、心理学与智能控制的跨学科研究,推动“类脑+AI+脑机接口”深度融合。

---

总结:从“算力智能”走向“生命智能”的里程碑
“悟空”类脑计算机的问世,标志着中国在类脑计算领域从“跟跑”向“并跑乃至领跑”转变。它不仅是硬件性能的跃升,更是计算范式的一次根本性变革——从以“数值计算”为核心的“算力智能”,转向以“时空动态信息处理”为基础的“生命智能”。

未来,“悟空”有望在以下几个方向持续拓展:
- 赋能脑机接口,实现高位截瘫患者更自然的意念控制;
- 模拟抑郁症、帕金森病等神经系统疾病的病理过程,助力新药研发;
- 构建类脑通用人工智能(AGI)原型系统,探索机器意识的可能性边界。

“悟空”之名,源自中国文化中“识万变、通灵性”的美猴王形象,正寓意着这台机器不仅强大,更追求一种灵活、自主、进化的智能形态。它的出现,或许正是人类迈向“创造类生命智能”这一宏伟目标的重要起点。
如何不发帖就快速得到金币道行
 
快速回复
限120 字节
认真回复加分,灌水扣分~
 
上一个 下一个