来源:滚动播报
(来源:中国航空报)
在人工智能领域,2025年标志着一个决定性的转变。曾经局限于研究实验室和原型机的系统开始成为日常工具。这一转变的核心是人工智能体的崛起——这些人工智能系统能够使用其他软件工具并自主行动。
尽管研究人员对人工智能的研究已超过60年,“智能体”一词也早已成为该领域的常用术语,但2025年才是人工智能概念真正为开发者和消费者所理解的一年。
人工智能体从理论走向基础设施,重塑了人们与大型语言模型(例如,ChatGPT等聊天机器人所使用的系统)的交互方式。
2025年,人工智能体的定义从学术界对能够感知、推理和行动的系统的定义,转变为人工智能公司Anthropic对能够使用软件工具并自主行动的大型语言模型的描述。虽然大型语言模型长期以来在文本响应方面表现出色,但最近的变化在于它们行动能力的扩展,例如,使用工具、调用API、与其他系统协调以及独立完成任务。
这种转变并非一蹴而就。一个关键的转折点出现在2024年末,当时Anthropic发布了模型上下文协议(Model Context Protocol)。该协议允许开发者以标准化的方式将大型语言模型连接到外部工具,从而有效地赋予模型除生成文本之外的其他功能。由此,2025年成为人工智能代理元年已成定局。
2025年的里程碑事件
发展势头迅速增强。1月,中国DeepSeek-R1模型以开放权重模型的形式发布,颠覆了人们对谁能构建高性能大型语言模型的固有认知,撼动了市场,并加剧了全球竞争。开放权重模型是指其训练过程(以权重值表示)公开的人工智能模型。在2025年全年,OpenAI、Anthropic、Google和xAI等美国主要实验室发布了规模更大、性能更高的模型,而阿里巴巴、腾讯和DeepSeek等中国科技公司则进一步拓展了开放模型生态系统,以至于中国模型的下载量超过了美国模型。
另一个关键点出现在4月,当时谷歌推出了Agent2Agent协议。Anthropic的模型上下文协议(Model Context Protocol)侧重于智能体如何使用工具,而Agent2Agent则着眼于智能体之间的通信。至关重要的是,这两个协议的设计初衷就是为了协同工作。同年晚些时候,Anthropic和谷歌都将各自的协议捐赠给了开源软件非营利组织Linux基金会,从而巩固了这些协议作为开放标准的地位,使其不再是专有实验。
这些进展迅速应用于消费产品。到2025年中期,“智能浏览器”开始 出 现。Perplexity的Comet、Browser Company的Dia、OpenAI的GPT Atlas、微软Edge浏览器中的Copilot、ASI X Inc.的Fellou、MainFunc.ai的Genspark、Opera的Opera Neon等工具将浏览器重新定义为人工智能的积极参与者,而非被动的界面。例如,它不再仅仅是帮助用户搜索度假信息,而是参与到度假预订过程中。
与此同时,像n8n和谷歌的Antigravity这样的工作流构建工具降低了创建自定义智能体系统的技术门槛,使其超越了Cursor和GitHub Copilot等编码智能代理的水平。
新的力量,新的风险
随着人工智能体能力的增强,其带来的风险也越来越不容忽视。去年11月,Anthropic公司披露了其Claude Code代理如何被滥用,用于自动化网络攻击的部分环节。这一事件凸显了一个更广泛的担忧:通过自动化重复性的技术工作,人工智能体也可能降低恶意活动的门槛。
这种矛盾贯穿了2025年的大部分时间。人工智能代理拓展了个人和组织的能力范围,但也加剧了现有的安全漏洞。曾经孤立的文本生成器系统如今已相互连接,成为在几乎无人监管的情况下运行的工具使用者。
2026年值得关注的方面
展望未来,几个悬而未决的问题可能会影响人工智能体的下一阶段发展。
其中之一是基准测试。传统的基准测试类似于结构化的考试,包含一系列问题和标准化的评分标准,适用于单一模型,但代理是由模型、工具、内存和决策逻辑组成的复合系统。研究人员越来越希望评估的不仅是结果,还有过程。这就像要求学生展示他们的解题过程,而不仅仅是给出答案。
这方面的进展对于提高可靠性和信任度,以及确保人工智能代理能够完成当前任务至关重要。一种方法是为人工智能体和人工智能工作流程建立清晰的定义。各组织需要精确规划人工智能将如何融入现有工作流程或引入新的工作流程。
另一个值得关注的问题是治理。2025年底,Linux基金会宣布成立代理人工智能基金会(Agentic AI Foundation),标志着其致力于建立共享标准和最佳实践。如果成功,它有望像万维网联盟一样,在构建开放、可互操作的代理生态系统中发挥作用。
关于模型规模的争论也日益激烈。虽然大型通用模型占据了新闻头条,但规模较小、更专业的模型往往更适合特定任务。随着智能体逐渐成为可配置的消费者和企业工具(无论是通过浏览器还是工作流管理软件),选择合适模型的权力正越来越多地从实验室或企业转移到用户手中。
未来的挑战
尽管前景乐观,但仍存在诸多重大的社会技术挑战。数据中心基础设施的扩张给电网带来压力,并对当地社区造成影响。在工作场所,人工智能代理引发了人们对自动化、工作岗位流失和监控的担忧。
从安全角度来看,将模型连接到工具并将多个代理堆叠在一起,会成倍增加独立大型语言模型中本已存在的风险。具体而言,人工智能从业者正在努力解决间接提示注入的风险,即提示信息隐藏在人工智能代理可读取的开放网络空间中,从而导致有害或意外的行为。
监管是另一个尚未解决的问题。与欧洲和中国相比,美国对算法系统的监管相对有限。随着人工智能体嵌入到数字生活的方方面面,关于访问权限、问责制和限制等问题仍未得到充分解答。
应对这些挑战需要的不仅仅是技术突破,还需要严谨的工程实践、精心的设计以及对系统运行和故障方式的清晰记录。只有将人工智能代理视为社会技术系统而不是单纯的软件组件,我们才能构建一个既创新又安全的人工智能生态系统。 (逸文)