
当人工智能做出决定,人类只是“签字”的:AI产品的致命设计缺陷
当一份来自AI的权威建议赫然出现在屏幕上,你在时间压力和脑力疲劳的双重夹击下,是选择仔细审视,还是直接点击“同意”?最新的一项研究发现,答案往往是令人不安的后一种。著名设计师莱斯利·苏尔坦尼在Medium上发布的一篇深度分析指出,在医疗、法律和刑事司法等高风险的AI产品中,普遍存在一个危险的设计陷阱:AI系统实际上在做决定,而人类只是名义上“签字”批准。这不仅仅是用户体验问题,而是将使用者直接暴露在法律诉讼和职业制裁的风险之下。
被打破的“社会契约”:AI是工具,不是裁判
苏尔坦尼提出,AI产品的核心设计原则本应清晰:AI是决策支持工具,人类才是最终的决策者。这两者是完全不同的职责。AI的职责是提供人无法独自发现的模式与风险,而人类则需结合经验与上下文进行最终判断。然而,大多数产品团队在构建产品时,只顾着让AI输出结果“看起来不错、感觉很快”,之后才草率地加入一个“人工审核”步骤。其结果就是,产品表面上看似是决策支持,实际功能更像一个“责任转移机制”——AI获得快速高效的赞誉,而人类则独自承担了所有错误决策的风险和后果。正如原文一针见血地指出:“AI获得了功劳,人类获得了风险。”
自动化偏见:为什么“人类参与”反而会让错误更多
设计缺陷的后果在学术研究中得到了残酷的验证。2023年发表在美国医学会杂志的一项研究对457名临床医生进行随机测试发现,当AI预测出现系统性偏差时,即便系统给出了“推理过程”(热力图),不仅没有帮助医生发现错误,反而让他们更倾向于同意AI的错误结论。更令人震惊的是,哈佛大学的研究人员发现,在系统中引入一个“人工审核”环节,实际上增加了人们盲目遵从AI建议的频率。因为人类审核员的存在,给其他参与者制造了一种“问题已经被审查过”的虚假安全感。哈佛的扎纳·布钦卡和克日什托夫·加约斯通过实验发现,唯一的解决方案是:强制人类在查看AI答案前,必须先陈述自己的判断。虽然这极大提高了决策准确性,但参与者给这些“好设计”打了极低的分数——因为“没有摩擦”的流畅体验,才是他们心中好用的UX。在高风险的决策场景中,这种对流畅体验的追求,恰恰是失败的开端。
我的看法:产品经理们,请停止“设计甩锅”
这条新闻的核心价值不在于指出了问题,而在于它系统性地揭示了“自动化偏差”如何被糟糕的产品设计所放大。许多AI公司的产品经理和设计师仍然在沿用传统软件的逻辑:追求效率、追求精简步骤、追求用户“无痛”完成流程。但这些逻辑在AI辅助决策中完全失效。当AI的输出以一种不容置疑的权威姿态占据屏幕中心,并配上一个醒目的“确认”按钮时,人类大脑会本能地走捷径。这场AI赛道上的“设计危机”必须得到正视。未来的赢家,不是那个让AI决策速度最快的公司,而是那个能通过巧妙交互设计,迫使人类保持警醒、真正参与判断并与AI形成协作的公司。法律合规与伦理约束,最终必须通过具体的交互界面来落地。


