最近DeepSeek的出现,直接让AI行业的“算力叙事”摇摇欲坠,由此也使得英伟达的日子自然就不太好过了。不过最近的一条消息,可能会让他们稍微缓缓。日前据《财经》杂志报道,腾讯方面正在加速大模型应用的推进,并且近期已经向英伟达采购一批H20芯片,这笔订单的金额约在数十亿元人民币量级。
对于AI行业长期保持关注的朋友,在看到这款英伟达面向中国市场推出的人工智能芯片“H20”时,心中就会暗自警惕。原因无它,因为在去年夏季,摩根士丹利的相关报告中就曾声称,BAT正积极采购英伟达H20。然而这些大厂批量采购H20、使得英伟达在2024年交付超过100万颗H20芯片这件事,并没有发生在现实世界。
尽管H20在去年夏季吸引国内科技巨头的采购兴趣是个假消息,但并不代表如今腾讯向英伟达采购也是假的。而且恰恰相反,如今腾讯是极有可能大批量购买H20的,其中的奥妙则既与H20本身有关,也与DeepSeek-R1推理大模型息息相关。
作为H100的阉割版,H20是英伟达在美国出口管制政策下为中国市场定制的一款产品,其最高的理论性能可达296TFlops(每秒浮点运算次数),显存容量为96GB、带宽则是4.0Tb/s,性能密度只有2.9TFLOPs/die。不得不说,H20的存在其实也证明了英伟达的刀法精湛,而性能密度相比H100断崖式的下降,更是直接让这款芯片几乎无法用于AI大模型的训练。
此前在去年夏季,“百模大战”的硝烟尚未散去、大模型的价格战激战正酣,几乎所有国内AI厂商都在卯足了劲迭代自家大模型。对于彼时的AI厂商而言,国产的华为昇腾910系列以及从各种不可言说的渠道流入国内的英伟达H800/H100,都远胜于不上不下的H20。
可是谁都未曾想到,OpenAI的推理模型o1在去年秋季如期现身,具有推理能力的大模型就直接改变了这个市场的生态环境。紧接着到了2025年年初,国产推理大模型DeepSeek-R1惊艳亮相,使得AI模型的智能走向了新的高度,更具思辨性的AI直接降维打击了传统的大语言模型。
OpenAI o1、DeepSeek-R1的进步,体现在开发者通过强化学习算法教会了模型如何利用CoT(思维链)进行富有成效的思考,与通常大模型只是简单的下一个词预测不同,它们能够处理更加复杂的提示,甚至尝试用不同的方法来解决问题。
DeepSeek-R1的出色表现使得一大批厂商纷纷选择接入DeepSeek,其中腾讯也尤为卖力。在接入了DeepSeek-R1满血版之后,他们更是为自家的AI助手疯狂买量,在过去几周,腾讯元宝的广告在国内互联网世界可谓是无孔不入。
DeepSeek之于腾讯就好像OpenAI之于微软,腾讯的想法就是借鸡生蛋,用开源的DeepSeek扩张腾讯的AI生态。可是饱和式营销固然让腾讯元宝的用户规模出现了指数级增长,但想要让用户留下来,提供优质的服务无疑是重中之重。
当初,DeepSeek之所以经常会出现服务器繁忙就是因为算力紧张,如果不早做准备,同样的问题也会发生在腾讯元宝上。为了满足用户的需求,腾讯方面自然就需要购买算力。而H20之所以会被看中的原因其实很简单,那就是它在训练大模型上虽然确实不给力,但用于推理却是够格的。
96GB的显存、4.0Tb/s的高带宽搭,再搭配vLLM这种大模型推理加速框架,就让H20适合作为推理卡来说。其实大量购买H20也符合当下腾讯方面的需求,毕竟他们即便再财大气粗,也不可能用华为昇腾910、英伟达H800来做需要24小时在线的推理卡来用。
去年夏季,英伟达H20被认为是性能阉割、性价比低,是因为彼时AI厂商都忙着训练大模型,而现在开源的DeepSeek直接让相当一批厂商放弃了继续卷大模型,转而开始研究借助DeepSeek的能力来服务用户,以及为DeepSeek的部署保驾护航。
再说了,就在一个月前,DeepSeek最出圈的时候曾曝出美国正在研究如何收紧英伟达芯片的出口限制,焦点就是可能限制英伟达H20。所以在H20可能会变得奇货可居时,腾讯早做准备也就不奇怪了。