IBM虽然在大模型构建竞赛中起步较晚,但其研究部门已经构建了自己的企业级模型系列,而其服务器和研究部门在构建加速器和超级计算机方面经验丰富。
该公司拥有超过10万家企业客户,这些客户对AI如何改变其业务既持怀疑态度又充满希望,他们需要专业人士帮助构建首个AI系统,并逐步将应用程序转型为智能体AI平台。
在企业内部商业化AI模型并非OpenAI和Anthropic等大型模型构建商能够独立完成的任务。据我们了解,没有人只想租用一个API然后简单地输入查询并提取响应。他们需要一个平台,并且不想从头开始重建IT基础设施,也不想废弃几十年来构建的应用程序。此外,模型构建商正以惊人的速度朝着通用人工智能(在智力任务上匹敌人类)或超级智能(在智力任务上超越人类)的目标冲刺。
因此,IBM在生成式AI浪潮中处于相当有利的位置。虽然可能不如Oracle、Microsoft和Salesforce这些主要企业应用供应商(其中两家也是云基础设施供应商)那么有利。但考虑到IBM在1990年代和2000年代商业化Web基础设施的历史——IBM将Apache Web服务器和Tomcat Java服务器整合成WebSphere应用服务器,并从中获得了数百亿美元的收入——以及几十年来在经典HPC仿真方面的经验,低估IBM在这场竞赛中的能力是不明智的。
IBM的超级计算机业务在2018年在橡树岭国家实验室安装"Summit"混合CPU-GPU超级计算机以及在劳伦斯利弗莫尔国家实验室安装类似但略有不同的"Sierra"超级计算机后基本结束,一直在寻找另一种让HPC推动收入和利润的方式。显然,生成式AI是HPC的一种主流化——这意味着IBM可以通过销售软件和服务,甚至一些硬件来赚钱。
这就引出了IBM在本周techExchange2025开发者大会上发布的一系列公告。
IBM与Anthropic达成合作
首先是IBM与模型构建商Anthropic之间的合作伙伴关系,这是IBM与这家由OpenAI几位创始人创立的AI模型衍生公司的首次合作。IBM软件集团产品高级副总裁Dinesh Nirmal公布了这一合作关系,但没有透露财务细节。Nirmal在IBM工作了三十年,最初从事Db2和IMS大型机开发,十年前转向Hadoop和Spark数据分析,2017年接管IBM的数据和AI产品开发并运营硅谷实验室。
Nirmal与Anthropic联合创始人兼首席执行官Dario Amodei的对话相当平淡,缺乏详细信息,除了Amodei表示"我认为我们可以一起更快地前进"。
IBM似乎并没有像亚马逊和谷歌那样持有股份,后者为Anthropic提供资金,然后Anthropic将这些资金用于在AWS和Google Cloud上训练其各种Claude模型。
我们强烈怀疑,IBM被用作将Anthropic模型引入企业世界的渠道,在这些企业中,IBM Power Systems和System z大型机主导着后台系统,也是AI应用现代化的一些低垂果实所在。IBM可能在Anthropic模型许可方面获得了优惠,可以将其添加到Watsonx库中,也可以在其销售给客户的工具中使用。从某种意义上说,Anthropic是IBM的白标AI模型分销商,IBM嵌入这些模型并贴上自己的品牌。
推出Project Bob开发环境
IBM已经训练了自己的AI模型,甚至创建了Watsonx代码助手来帮助现代化大型机上的COBOL应用程序和IBM i专有平台上的RPG应用程序。但Anthropic被广泛认为在分析和生成应用程序代码方面拥有最佳模型,我们猜测Anthropic的Claude Sonnet 4.5比IBM自主研发的Granite 20B模型(用于COBOL代码助手)和专为RPG代码助手定制的Granite 7B模型更优秀。
可以确定的是,IBM各部门分别为RPG和COBOL开发的独立代码助手在作为Watsonx产品真正推广之前就已被弃用,取而代之的是一个新的AI增强集成开发环境,名为Project Bob,跨越IBM的平台(当然还有其他平台)。
IBM告诉我们,Project Bob基于Claude、Mistral、Granite和Llama模型,但没有具体说明。我们猜测是Claude Sonnet 4.5(参数数量可能在1500亿到2000亿之间)、Granite 8B和可能的7B、Llama 3 70B,至于Mistral模型我们不清楚。
IBM自动化和AI总经理Neel Sundaresan表示,Project Bob增强IDE已在IBM内部使用四个月,6000名软件开发人员在使用它。其中一半开发人员每天使用,75%每两天使用一次,所有人在十天内至少使用一次。IBM计算出,在那几个月的使用中,使用Project Bob的开发人员生产力平均提高了45%。
推出Spyre加速器
IBM TechX25的另一个相关消息涉及几年前从IBM研究院诞生的"Spyre" XPU,在过去一年中一直在商业化进程中。
Spyre卡将以八卡捆绑包的形式销售,IBM将在全栈、高性价比捆绑包中提供。Spyre PCI-Express卡不会单独销售。截至发稿时,尚不清楚Anthropic AI模型是否已移植到Spyre上,但如果IBM想销售运行Project Bob的自有硬件,那最好已经完成移植。
八张Spyre卡可以通过共享内存连接成一个虚拟Spyre卡,拥有1TB内存和1.6TB/秒的内存带宽来运行AI模型,总性能超过2.4千万亿次运算(推测是FP16精度,但IBM没有明确说明)。Spyre卡支持INT4、INT8、FP8和FP16数据类型。
Spyre加速器将从10月28日开始作为System z大型机的边车开始发货。计划在12月12日为Power Systems处理增强发货。捆绑包将包含Red Hat Enterprise Linux(在大型机或Power系统分区上管理Spyre卡所需),还包括RHEL.AI推理服务器和来自IBM的推理平台,在2026年第一季度,整个OpenShift.AI Kubernetes平台以及AI扩展、框架和Watsonx.data治理工具将移植到该堆栈中。
Spyre的独特优势
从Power Systems部门AI负责人Sebastian Lehrig那里了解到,Spyre加速器的一个巧妙之处在于,它具有让运行中的推理工作负载与其在Power硬件上的CPU一起进行实时迁移的电路。这是连接到Power Systems机器的Nvidia GPU或AMD GPU无法做到的。
IBM计划按用例在其平台上激活Spyre,并创建了大量使用在Spyre加速器上运行推理的AI模型的数字助手和智能体。这些包括用于管理IT、生成和分析代码、预测IT供应链或检测和修复安全漏洞的跨行业助手,以及针对银行金融、医疗保健、保险、公共部门等的行业特定智能体。
Q&A
Q1:Project Bob是什么?它有什么功能?
A:Project Bob是IBM开发的AI增强集成开发环境,基于Claude、Mistral、Granite和Llama等多种AI模型。它可以跨越IBM的各种平台使用,帮助开发人员提高编程效率。根据IBM内部测试,6000名开发人员使用Project Bob四个月后,生产力平均提高了45%。
Q2:IBM的Spyre加速器有什么特别之处?
A:Spyre是IBM自研的AI加速器,支持INT4、INT8、FP8和FP16等多种数据类型。八张Spyre卡可组成1TB内存、1.6TB/秒带宽的虚拟卡,性能超过2.4千万亿次运算。独特之处在于支持运行中推理工作负载的实时迁移,这是Nvidia和AMD GPU无法实现的。
Q3:IBM与Anthropic的合作会带来什么?
A:IBM与Anthropic的合作主要是将Anthropic的Claude模型集成到IBM的Watsonx平台中,帮助IBM更好地服务企业客户。IBM可以利用Anthropic在代码分析和生成方面的优势,将其嵌入到自己的产品中,特别是用于COBOL和RPG等传统应用的现代化改造。