过去一年,AI智能体引发了巨大关注,大量实验和失败并存,一些AI专家认为2026年的改进将有限。
研究公司Gartner预测,到2027年,40%的智能体AI项目将因成本上升、商业价值不明确或风险控制不足而被取消。
与此同时,关于企业成功部署智能体数量的数据存在冲突。普华永道5月的调查发现,79%的受访公司已在某种程度上采用了智能体。但企业搜索供应商Lucidworks开发了一个评估电商网站AI能力的智能体,发现在分析的1100个网站中,只有6%部署了多个智能体解决方案。
AI决策和工作流自动化供应商Pega的CTO Don Schuerman表示,虽然今年智能体部署会有所增长,但该技术可能尚未成为主流,部分原因是驱动智能体的大语言模型存在幻觉问题。
"2026年将是开始区分成功方法和失败方法的一年,"他说。"我不知道这是否是智能体真正接管一切的一年——这可能需要比人们预估的更长的转型时间。"
前景不明
许多组织在智能体AI方面面临困难的部分原因是,他们部署大语言模型时期望其能对问题进行推理,从而产生了过高的结果预期,Schuerman说。"大语言模型不是推理机器,它们只是文本预测机器,"他补充道。
Schuerman看到许多组织为可预测的工作流设计智能体,在这些场景中智能体不需要推理,但可以接管日常任务来节省员工时间。然而,要真正在智能体AI上成功,需要在设计阶段就将推理功能构建到智能体任务中,他说。
"真正将你的智能体锚定在这些业务流程和工作流中,因为企业想要做的大部分事情都希望作为一个确定性工作流运行,有一系列规定的步骤,你希望每次都以一致的方式执行,具有高度的可预测性、一致性和可审计性,"他解释道。
Schuerman认为,关于智能体应该如何使用的期望被早期部署扭曲了。相反,AI应该用来帮助重新定义智能体将接管的业务工作流,他说。
"有一个小小的误区是认为我们将随意在业务中部署数千个智能体,然后让它们自由运行,"他说。"相反,我们将使用智能体来定义和设计我们业务中需要的许多工作流,并以比以前更快的速度和完整性来完成。"
SalesforceCIO Dan Shmitt同意智能体AI在2026年的前景仍面临障碍。例如,许多组织仍缺乏明确的路线图来指导如何开始、扩展和定义成功,他说,并补充道,没有高质量数据和统一治理模型,智能体可能产生不可靠的结果。
尽管如此,Shmitt认为随着年度推进,智能体将被更广泛使用,即使不是一些AI专家预测的完全自主方式。
"我们不太可能看到完全自主的系统在组织中普遍部署,"他说。"相反,组织将开始采用智能体作为协作系统,在日常流程中与人员和其他智能体并肩工作,以增强员工生产力和决策能力。"
要实现这一目标,Pega的Schuerman强调CIO在推出智能体时需要坚持IT部署的基本原则。
"我们看到越来越多的人意识到,拥有智能体等新技术并不意味着可以忘记重要的基础工作,比如正确的工作流、正确的数据、明确的结果定义,"他说。"你必须了解它们如何交付结果。你必须确保智能体连接到数据。"
前景无限
IBM CIO Matt Lyteson也期望2026年智能体AI有更多成功部署,特别是如果IT领导者能在推出智能体时专注于目标结果。CIO还需要关注数据安全和控制,更好地理解智能体如何与其他IT系统交互,他说。
"我们的焦点是,如何在更多用例中扩展智能体以为组织带来价值,以及我如何真正理解结果、需要提供给智能体的数据,然后如何管理和控制它们?"他解释道。"如果组织能做到这些,我们将看到更多的采用和成功。"
部署智能体的一个障碍是将它们与现有系统和数据集成,Lyteson说。在没有完全定义目标结果的情况下部署智能体是另一个障碍,他补充道。
"作为IT业务,我们习惯于首先考虑流程,让流程完成某些事情,而不是首先考虑结果以及我希望智能体实现什么,"他说。"有些事情开始阻碍我们,是棘手的领域,如果你没有以正确的方式思考它们,真的可能导致失败。"
IBM已部署了数百个企业工作流AI智能体和数千个个人生产力智能体,Lyteson说。例如,公司正在使用智能体来分类IT支持工单和处理低级支持请求。
Lyteson建议CIO对智能体的潜力保持开放态度,即使一些试点项目没有产生好结果。
"每天、每周,我们都在学习新东西,"他说,并补充道CIO需要将这些学习应用于为组织最大化价值。"我们需要保持持续的好奇心,并将其转化为业务结果。如果我和我的同行CIO能够做更多这样的事情,那么前景将无限广阔。"
思考智能体生命周期
像Lyteson一样,Asana CIO Saket Srivastava认为AI智能体部署将在2026年增长,即使CIO面临多项挑战。
这些挑战包括人类对使用智能体的抵制,但Srivastava也认为CIO需要更好地掌握智能体生命周期,包括跟踪员工启动的智能体并决定何时淘汰无效智能体。许多CIO很快将不得不在智能体比员工更多的工作环境中导航,监控智能体效果将是必要的。
与此同时,可靠性和信任担忧可能仍会限制近期部署的智能体数量,他说。
"信任来自结构,信任来自上下文、权限、决策制定过程的可见性、工作流程如何推进,"Srivastava补充道。"我们所有人可能都对AI的一切过于兴奋,处于试点模式,在没有明确性的情况下尝试了一堆东西。我们是否有正确的数据;这是否是正确的流程?"
在某些情况下,组织将AI智能体添加到本来就有缺陷的工作流和流程中,他补充道。
"在自动化的简单时代,我们常说自动化一个糟糕的流程是没有意义的,"Srivastava说。"你是否更深入地审视你的流程?你是否在考虑重新设计这些流程然后应用AI?这是我看到的新一年的趋势。"
虽然一些智能体试点项目可能过于匆忙,但CIO也需要继续实验,在可靠结果和创新之间保持平衡,Srivastava说。
"也许让千朵花盛开可能不是最佳方法,但要创造合适的实验环境让其繁荣发展,同时你要有更高的信心,相信AI已经准备好解决这些问题,"他说。"确保你在解决正确的问题,以正确的方式解决,衡量结果,然后继续解决下一个问题。"
Q&A
Q1:为什么Gartner预测40%的智能体AI项目会被取消?
A:Gartner预测到2027年,40%的智能体AI项目将因三个主要原因被取消:成本不断上升、商业价值不够明确,以及风险控制措施不足。这反映了当前智能体AI项目在实际部署中面临的现实挑战。
Q2:大语言模型在智能体应用中存在什么问题?
A:大语言模型的主要问题是存在幻觉问题,并且它们本质上不是推理机器,而只是文本预测机器。许多组织错误地期望大语言模型能对问题进行推理,从而产生过高的结果预期,这导致了智能体AI项目的失败。
Q3:CIO在部署智能体时应该注意什么?
A:CIO需要坚持IT部署的基本原则,包括:确保正确的工作流、正确的数据和明确的结果定义;关注数据安全和控制;理解智能体如何与其他IT系统交互;首先考虑目标结果而不是流程;以及建立统一的治理模型来确保智能体产生可靠结果。