这是一条足以让全球科技圈沸腾的消息:在人工智能大模型不断吞噬算力、全球半导体产业疯狂追赶的时代,北京大学的科研团队,用一颗“新型模拟芯片”,让世界重新看到了中国算力的可能性。
10月13日,北大人工智能研究院孙仲研究员团队携手集成电路学院,成功研制出基于阻变存储器的高精度、可扩展模拟矩阵计算芯片。
他们在《Nature·Electronics》上发表的这篇论文,堪称“划时代的宣言”。因为它意味着:人类计算的方式,正在被重新定义。
或受此影响,相关概念的ETF皆有上涨:
从0和1,到电压的智慧
过去七十年,我们的世界都运行在“0”和“1”之间。CPU、GPU、TPU,无论多快、多强,都是靠无数次“0变1、1变0”完成计算。
但冯·诺依曼架构的天花板,已经隐约可见:数据在“存储器”和“处理器”之间来回搬运,像堵在狭窄管道里的洪流,消耗着时间与能量。
北大团队要做的,是一场革命。他们让芯片不再说二进制语言,而直接用电压和电流去“思考”。数学上的“10”,不再是“1010”,而可能是一股十伏的电流、一束流动的能量。
这就是“模拟计算”,一种被数字时代遗忘,却被北大重新唤醒的古老智慧。
一次“算力地震”:GPU干一天,它只要一分钟!
如果说原来的GPU像是勤奋的码农,这颗芯片更像是天生的数学家。
在实验室中,它成功完成了16×16矩阵的24位定点求逆,精度高到相对误差仅10⁻⁷,吞吐量更是超越顶级GPU1000倍!
是的!GPU干一天的计算,它一分钟搞定。而且能效比提升100倍,几乎不发热。这意味着,在AI大模型的训练中,原本需要几百张GPU堆叠的算力农场,未来,可能只需要一颗巴掌大小的模拟芯片。
技术的美学:让存与算合二为一
这次北大团队的突破,不止在“快”,更在“巧”。他们创造性地把“低精度模拟求逆”和“高精度模拟矩阵-向量乘法”结合起来:
前者快速逼近正确答案,后者精确修正误差,最终达到24位定点精度。
再加上块矩阵协同算法,使得多个芯片可协同求解更大规模矩阵,这就是“新型信息器件 + 原创电路 + 经典算法”的协同设计之美。
在硬件层面,它采用40nm CMOS工艺,阻变存储器阵列支持3比特电导态编程,计算与存储合为一体,不再有“内存墙”的拖累。
就像让思维和记忆回归到同一个脑区,它不再“计算数据”,而是在“理解数据”。
应用爆发:AI训练、MIMO通信、边缘计算三箭齐发
这项技术不仅是理论上的惊艳,更在实践中大放异彩。
在大规模多输入多输出(MIMO)信号检测任务中,这颗芯片仅经过三次迭代,就能让接收图像与原始图像几乎一致。
误码率-信噪比曲线显示,它的表现几乎可媲美32位浮点GPU。这意味着它不仅能在无线通信中加速信号处理,还可能成为AI训练中“二阶优化”的终极加速器,让模型训练不再是烧钱的游戏,而是硬件层面的飞跃。
更令人兴奋的是,在未来的边缘设备,机器人、无人机、智能终端,这种低功耗、高精度的模拟芯片,将让“AI训推一体”成为现实。
AI不再依赖云端,而是直接在设备上学习、思考、决策。那将是一个真正“智能万物”的时代。
这不仅是一颗芯片,更是一种时代信号
每一次技术的范式迁移,都改变了世界。从蒸汽到电气,从晶体管到AI,真正的革命从来不是喧嚣,而是来自实验室的一盏灯。
北大团队的这颗芯片,点亮的,正是中国在高端算力自主化道路上的新起点。它让世界看到,在后摩尔时代的算力之争中,中国不只是追赶者,而是开辟者。
孙仲说:“我们的目标不是取代GPU,而是与它并肩,让计算更高效、更智慧。”这句话背后,是科研的谦逊,更是民族的自信。
当电流开始“思考”,算力的未来被点燃
今天的突破,也许只是未来巨浪的浪尖。当电流能直接进行思考,当“存算一体”的芯片遍布终端,
那一刻,AI将真正像生命一样:有感知、有能量、有意识。算力的边界,正在被中国科学家一点点拓宽。
在这个被GPU统治的时代,一颗来自北大的“中国芯”,
正在用电压和梦想,改写未来。(转自AI普瑞斯)