17173 > 游戏资讯 > 科技新闻 > 正文

别乱动我的钱包:苹果研究表明用户讨厌 AI 自作聪明

2026-02-13 10:05:53 神评论
17173 新闻导语

苹果AI研究揭示用户真实需求:讨厌自作聪明,要求透明度与绝对控制权。了解如何设计更人性化的AI交互体验。

2 月 13 日消息,苹果机器学习研究团队于 2 月 7 日发布论文《绘制计算机操作智能体用户体验设计空间》,聚焦揭示用户对 AI 智能体的真实期望及交互偏好。

研究人员指出,尽管市场在大力投资开发 AI 智能体,但关于界面形态及交互逻辑的探索仍显不足。为此,团队通过分析现有产品并开展实地用户测试,试图厘清这一新兴领域的设计规范。

在研究的第一阶段,援引博文介绍,团队深入剖析了包括 Claude Computer Use、OpenAI Operator 及 AutoGLM 在内的 9 款主流桌面及移动端 AI 智能体。

研究通过咨询 8 位资深从业者,研究人员构建了一套包含“用户指令”、“活动可解释性”、“用户控制”及“心智模型”四大维度的分类体系。该体系涵盖了从用户如何下达命令,到 AI 如何展示其操作计划、报错及移交控制权的全过程。

研究的第二阶段采用了经典的“绿野仙踪法”(Wizard of Oz)。团队招募了 20 名具有 AI 使用经验的用户,要求其通过聊天界面完成度假租赁或在线购物任务。

为了排除技术故障干扰,准捕捉用户在面对 AI 决策时的真实心理反应与行为模式,苹果采用真人模拟 AI 操作(包括故意犯错或陷入死循环)的方法,用户并不知道屏幕背后的“AI”实则是隔壁房间的研究员。

实验结果表明,用户对“透明度”有着微妙的需求:他们希望了解 AI 的动向,但拒绝微观管理每一个步骤,否则便失去了使用智能体的意义。

这种需求随场景而变:在探索性或不熟悉的任务中,用户渴望看到更多中间步骤与解释;而在高风险场景(如支付、修改账户信息)中,用户要求拥有绝对的确认权。

研究最后强调,信任是人机交互的基石,但它极其脆弱。当 AI 智能体在遇到模糊选项时未做询问便擅自做主(静默假设),或者在未告知的情况下偏离原定计划,用户的信任感会迅速崩塌。

在 AI 遇到不确定情况后,用户并不希望其为了追求“自动化”而随机选择,更倾向于 AI 暂停并寻求澄清,尤其当这些选择可能导致买错商品等实际损失时。

附上参考地址

苹果官网:Mapping the Design Space of User Experience for Computer Use Agents

Arxiv:Mapping the Design Space of User Experience for Computer Use Agents

【来源:IT之家】
关于AI智能体,用户体验,人机交互,透明度,用户控制,信任,计算机操作,设计空间,绿野仙踪法,心智模型的新闻
亲爱的 17173 玩家们~我们正在打磨平台的找游戏功能,想听听你平时是怎么筛选、导航找游戏的?你的真实习惯和偏好,能让后续找游戏更顺手哦!立即点击填写问卷 参与问卷