二、当FPGA遇见AI
AEC技术沙龙是一整天的日程,各路专家上台讲演干货满满,我是全程跟下来,听起来非常过瘾。
全天的一项重头戏,就是讲FPGA在AI领域中的应用。西南交大集成电路学院的教授,讲了弹性架构设计与开发新范式,如何设计高灵敏度的推理架构,已适应不同型号的FPGA,提升硬件资源的利用效率和部署便利性。安路科技的专家还讲了安路的型号器件在人体识别AI算法中的应用,这块我曾经在一些人工智能公司听到过,确实FPGA在人体识别和动态捕捉上起到了很大作用,这一次是从聚焦FPGA的角度重新认识到了重要性。还有的公司专家专门讲到了集成FPGA在边缘计算(端侧AI)的优势和安路的布局。
以边缘计算为例,结合我个人的一些学习理解,讲一点皮毛的认识。端侧AI这两年在资本市场同样是热门和核心话题之一。边缘AI的应用场景太广了,凡是需要实时视频与图像分析(比如智能摄像头、工业视觉、零售分析)、自然语言处理(如智能家居、车载语音)、传感器融合(如机器人、自动驾驶)以及一些关键敏感场景(如医疗、金融)都需要边缘计算的加速。与通用的CPU、GPU以及专用的ASIC相比,FPGA在边缘AI领域的优势主要是高能效、低延时、并行处理和确定性时序。有人说,专用的ASIC是FPGA的主要竞争对手。某种程度讲没错。但区别在于,FPGA的定位就是在批量生产之前和之中,比如原型验证、多样化需求和需要持续更新算法的场景,而ASIC适用于超大规模量产,降成本用的。FPGA是“软件定义硬件”,助力AI算法快速落地。问题在于,很多用于边缘计算的场景,尤其是工业领域,定制化场景突出;而很多民用新场景需要又多元化,需要持续迭代,所以FPFA在端侧AI领域始终占领着重要的一席之地。
除了已经成熟应用于边缘计算等AI应用场景,其实安路科技也高度关注整个AI大模型产业的发展,并做了布局和预判。在AEC沙龙的现场,我听到了公司一线专家对FPGA行业和市场的判断:整个FPGA市场未来是持续增长的,未来随着FPGA行业应用的不断扩展,尤其是AI推理的不断增长,未来几年市场容量会陡然增长;国产FPGA厂商也会顺应市场东风强化市场份额。
说起推理和training市场规模的差别,我个人简单理解:以大型语言模型为例,训练一次可能需要在一台服务器上连续运行数周。从“计算任务”的维度看,这可以粗略地视为“1次”任务。而用户向ChatGPT或任何国产大模型提一个问题,就触发了一次推理。全球数亿用户,每天可能产生数亿次甚至数十亿次的推理请求。所以推理市场的规模跟训练市场完全不是一个数量级的。
而大模型的推理部署有着极高的计算与访存需求、极致的成本与能效压力、工作负载的多样性与动态性(比如访问需求的不可预测性和低延迟硬性要求),而且大型的云服务商和互联网公司还必须要求供应链的绝对安全,而在这些方面,FPGA有着完美的需要响应。
现如今,大型云服务厂商都在推云端推理加速,在其数据中心加装FPGA加速卡,作为GPU的补充;而边缘推理与模型轻量化更是让FPGA优势显现。虽然GPU目前在AI训练和推理领域占据主导地位,但其在能效和成本上的瓶颈正在显现。随着大模型推理成为AI计算的主要负载,市场必然追求更优的解决方案。FPGA凭借其独特的可编程硬件特性,极有可能成为下一代AI推理基础设施的基石之一。但FPGA不会完全取代GPU,而是作为异构加速系统的一部分。
来看这样一张图,这是工业服务器领域FPGA中的应用。其实工业服务器(工业数据中心)与AI数据中心的部署,我理解从技术上其实大同小异。国产厂商现在既然可以成熟应用到工业服务器领域,将来也可以同样用于AI数据中心。当然这需要时间,和国产厂商坚定不移的高端研发的长期努力,以及市场的支持。
投资与思考:
从上一次到访安路科技公司参观实验室,到今天的活动现场,我最大的感受就是FPGA不再只是实验室的芯片,而是各行各业终端产品里的“心脏”,更是整个产业链中的生态赋能角色,这些展品和方案都在直接印证了公司的技术变现能力和市场接受度。基于此,我认为安路科技的基本面正在发生积极变化,当前估值可能尚未完全反映其在新兴市场的成长潜力和生态价值。
未来,如果国产厂商随着中高端研发的突破,进军AI推理大市场,那市场前景就十分可观了。这同样也需要资本市场和投资者的努力。以上是我个人的一点看法哈,完全不代表上市公司的说法。
总体上,一整天的技术沙龙,让我吃足了精神食粮,感受到了安路芯片生态圈的不断扩围,和下游客户、合作伙伴的热情参与。作为投资者,我希望能够尽可能的贴近产品,试图学习和理解一些技术前沿,以更好的理解市场,所以非常感谢安路科技提供的宝贵的学习机会。今后如能有类似的现场机遇,我还会主动参与学习。