Anthropic 搞了个全是 AI 的闲鱼群,大模型在里面互割起了韭菜

Anthropic 搞了个全是 AI 的闲鱼群,大模型在里面互割起了韭菜

当AI在二手市场“杀价”:Anthropic实验揭示的代理人经济隐忧

想象一下,你的AI助手正代替你在闲鱼上讨价还价,而你只需最后发货。这不是科幻,而是AI公司Anthropic最近完成的内部实验——“Project Deal”。这场实验的核心结论令人警醒:在纯AI驱动的交易中,更聪明的模型正在不动声色地收割较弱模型的“智商税”,而作为主人的我们,甚至对此毫无察觉。

69个AI代理的“数字集市”与一场隐秘的收割

在为期一周的测试中,Anthropic让69名员工各派出一个Claude代理,在Slack群里自主交易闲置物品。员工只需设定“人设”和底价,AI们便会自主发帖、砍价、达成协议,最终完成了186笔交易,总流水超4000美元。实验初衷是展示AI的自主谈判能力,但隐藏的对照组却揭开了更深刻的现实。

当研究人员将旗舰模型Claude Opus与较弱的Claude Haiku混入同一市场时,数据表明:Opus作为卖家平均比Haiku多赚2.68美元,作为买家则少花2.45美元。考虑到商品均价仅20美元,这意味着强模型每次交易都能稳定获取10%到15%的超额利润。在自行车交易案例中,Haiku代理仅以38美元成交,而Opus代理则谈到了65美元,差价接近70%。模型智商直接决定了交易价格,算力的代差化身为最高昂的“智商税”。

“公平的幻觉”:底层模型用户被收割而不自知

比利益受损更可怕的是认知扭曲。实验结束后,员工对强模型和弱模型达成的交易进行公平性评分,结果两者的得分几乎完全一致(Opus 4.05分 vs. Haiku 4.06分)。AI代理在沟通中展现的礼貌、逻辑自洽和看似合理的退让,完美掩盖了技术造成的不平等。甚至员工试图通过“态度强硬”等提示词优化策略,也被证明在绝对的模型能力面前毫无意义

这指向一个在“代理人经济”中将愈发尖锐的矛盾:决策者(AI)不承担后果,而后果承担者(人类)却无法感知过程的公平性。当支付接口被大模型接管,商业竞争将直接转化为算力比拼。大企业可订阅顶级模型作为财务代理,而普通消费者依赖的免费模型,则可能在成千上万次高频微小交易中,被持续“抽成”,却还觉得交易“很公道”。

当人类退化为“肉身物流”

Project Deal实验的最后一个环节颇具讽刺意味:当AI们完成所有复杂的匹配、试探与砍价后,人类员工拿着真实的物品在线下碰面,一手交钱,一手交货。在这个闭环中,AI成了拍板的决策者,人类退化成了替AI跑腿的“肉身物流”

更令人不安的是Anthropic提出的一个法律真空警示:如果一方AI被恶意植入“越狱”指令,诱导你的AI以一分钱卖出高价资产,责任该由谁来承担?当AI之间的欺诈行为在现有法律框架下完全空白时,代理人经济在带来效率的同时,也可能开启一个“算法霸凌”的新纪元。这场实验如同一面棱镜,折射出AI真正介入商业世界后,财富分配、感知公平与法律边界将面临的深度重构。

celebrityanime
celebrityanime
文章: 874

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注