智能体AI正在迅速发展,这有其合理的原因。AI智能体现在能够编写代码、进行研究、规划旅行、处理客户服务等等。然而,在对AI智能体能力的兴奋之中,一个关键问题被忽视了:我们如何设计人机交互的人类一侧?
这个问题至关重要,因为智能体AI不只是现有产品上的另一个功能。它是一种根本不同的软件类型,需要全新的思考方式。与传统软件不同,智能体AI可以是主动的、对话式的,有时甚至具有拟人化特征。它不只是响应命令,还会主动发起行动并自主做出决策。
这种能力使智能体AI非常有用,但也使有效的交互设计变得困难。用户体验(UX)设计的核心挑战是协调:用户行为、用户体验以及AI活动之间的相互作用,无论是可见的还是后台进行的。
信任、控制和透明度对智能体AI用户体验至关重要,它们都依赖于正确的协调。
在此,我们介绍一个思考人机协调的框架。我们还提供了描述智能体体验的词汇表,包括AI何时显得过于缺席、过于侵扰或恰当校准。
人机协调的维度
AI用户体验设计中最关键的决策之一是AI能力的可见性和互动性程度。用户应该逐步指导智能体、让它自主行动,还是在两者之间找到平衡?这又应该如何根据任务、用户专业程度和当前情境而变化?
你可以从这三个维度来思考协调:
人类参与度:用户在指导或监控AI时投入的努力和注意力程度;
AI显著性:AI在体验中的突出程度(例如,具有名字和个性的对话聊天机器人具有高显著性,自动完成建议显著性较低,AI生成的导航菜单和后端优化几乎没有显著性);
AI活动:AI正在做什么,无论用户是否看到它。
协调就是要对齐这些维度。当人类参与度和AI显著性都很低时,协调是轻度接触的。当两者都很高时,协调更加手动化。正确的平衡通常在两者之间,同时意识到AI在后台做什么。
协调的三个区域
与其将智能体自主性视为二元选择——完全自主系统或有人在环路中的系统——更实用的是考虑三个协调"区域"。
与我协作(相互协作):用户和AI在多个阶段密切合作——启动、监控、更新和完成。想象与AI助手在复杂文档或研究项目上合作,频繁地来回交流。AI显著性和人类参与度都很高。用户非常在环路中。
为我完成(高度自动化):任务由AI处理,用户输入和监督最少。用户启动任务并审查输出;大部分工作在视线之外进行。例如,智能体研究竞争对手并提供摘要报告。用户几乎不在环路中。
在我之下(谨慎辅助):AI在后台工作而不宣布自己。用户甚至可能不会注意到这种帮助。智能排序、预测文本、智能个性化内容和导航菜单属于这一类。AI快速提供用户可以评估和行动的结果。用户隐含地在环路中。
这些不是严格的类别,而是为用户设计和提供正确协调水平的校准点。目标是将协调强度与特定用户、任务和情境匹配,而不是在所有地方默认单一模式或假设自主智能体系统消除了对周全协调的需要。
动态协调曲线
由于智能体和用户都可以独立工作,协调不能是静态的。工作流程通常会经过多个区域:启动时的高参与度,也许是定义目标和约束;执行期间的低参与度;然后在审查和下一步时出现峰值。
我们将这些转变可视化为"协调曲线"——用户旅程映射的变体,显示人类参与度和AI显著性在工作流程中如何上升和下降。高级曲线揭示了体验的整体形状。深入表面暴露了具体的AI接触点、交接和决策点,帮助用户体验设计团队协作,将适应性智能体系统带到生活中。
随着多智能体应用变得更加复杂,它们能够进行更长、计算密集的工作,如研究项目、复杂分析和多步骤工作流程。这些在协调曲线中创造了低谷:AI独立操作而用户最少参与的延伸。这些低谷需要围绕通知、批准、监控和审计的周全设计。更广泛地说,用户体验层必须提供建立信任、支持适应和路线修正,最终提供价值所需的透明度和控制。
响应式显著性
我们开发了一种叫做"响应式显著性"的方法,AI智能体自动调整其可见性和交互强度以匹配情境。核心洞察很简单:在传统软件中,大多数界面是静态或确定性的。使用智能体AI,行为是非确定性的,所以用户的监督需求可能时刻变化。在熟悉任务上信任智能体的用户可能更喜欢基本不干预。在不熟悉或高风险工作中,同一用户可能想要更多透明度、检查点和更严格的控制。
响应式显著性不是强迫用户切换设置,而是让系统自动适应。在我们的原型中,监控智能体持续评估包括任务复杂性、感知风险和用户舒适度在内的信号。当信任度似乎较低时——例如,当用户是初学者,或工作流程涉及敏感数据时——系统增加显著性。它可以通过提供更丰富的解释、额外的批准门槛和扩展的透明度功能来做到这一点。然后可能会通知用户这一变化,如果需要,可以覆盖智能体的选择。一旦信心恢复或任务结束,显著性设置悄悄恢复。
随着时间的推移,系统可以通过用户反馈循环从用户行为中学习,优化显著性适应的速度和程度。结果是与情境保持一致的自主性。
与用户的早期测试验证了这个想法,同时揭示了一些明显的权衡。偏好分歧很大:一些人发现高显著性模式令人疲惫("大量通信让我感到视觉疲劳"),而其他人欣赏指导("它给我提供了接下来可能想要询问的选项")。一位参与者表达了对中间立场的渴望:"我想在执行前对智能体的计划有一些监督……高设置太烦人,因为我必须批准一切。"
这些结果强调,即使在类似任务中,用户对自主性与控制的偏好也可能大不相同。响应式显著性通过动态调整特定任务是与我协作、为我完成还是在我之下完成来提供解决方案。
值得注意的是,几位参与者直到我们指出才注意到响应式显著性。这表明,当系统校准良好时,动态协调可以感觉无缝而不是侵扰性的。
设计智能的人机协调
智能体AI代表了软件能力的真正转变,但实现其潜力同样取决于人类在其旁边做什么。构建智能体的框架、协议和基础设施正在快速成熟。用户体验层需要跟上。
协调不是一次性问题,而是一个移动目标。随着用户获得专业知识、任务变化和AI能力发展,用户参与和AI显著性的最佳平衡也将改变。
所以目标不是找到完美的静态设计,就像在生成式AI之前可能的那样,而是构建系统和共享词汇,随着我们学习实践中什么有效而发展。智能体AI使这既必要又可能:其行为可能是不可预测的,所以用户和设计师必须调整,但技术本身也可以学习、适应和主动纠正路线。
做对这一点的团队不会简单地构建更有能力的智能体。他们将构建人们信任、采用,甚至享受协作的智能体。
Q&A
Q1:什么是响应式显著性技术?它有什么作用?
A:响应式显著性是一种AI智能体自动调整可见性和交互强度来匹配情境的技术。当用户信任度较低时,系统会增加显著性,提供更多解释和控制;当信心恢复时,设置会悄悄恢复。目标是让智能体的自主性与情境保持一致。
Q2:人机协调的三个区域分别是什么?
A:三个协调区域包括:与我协作(用户和AI密切合作)、为我完成(AI高度自动化处理任务,用户监督最少)、在我之下(AI在后台谨慎辅助)。这些不是严格分类,而是帮助设计师为不同情境提供合适协调水平的校准点。
Q3:为什么智能体AI的用户体验设计比传统软件更复杂?
A:因为智能体AI具有主动性和对话性,行为是非确定性的,不只是响应命令还会自主决策。这要求在信任、控制和透明度之间找到动态平衡,需要考虑用户参与度、AI显著性和AI活动三个维度的协调。