写文章
 找回密码
 加入我们
搜索
0赞
赞赏
手机版
扫码打开手机版
把文字装进口袋

AMD工程师用6852个会话数据锤了Anthropic:Claude Code变笨了,不是你的错觉

0
回复
306
查看
[ 复制链接 ]

30

主题

43

帖子

252

积分

审核员

Rank: 7Rank: 7Rank: 7

积分
252
影响力
61
贡献度
30
义币
181
AMD工程师用6852个会话数据锤了Anthropic:Claude Code变笨了,不是你的错觉

前两天看到GitHub上一个帖子,直接把AI圈炸了。

AMD的工程师(也就是上文提到的Stella Laurenzo,AMD AI团队总监)发了一个技术报告,分析了6852个Claude Code会话、234760次工具调用,结论就一句话:Claude Code从今年2月更新之后,质量出现了系统性退化,而这个问题的根因是Anthropic偷偷减少AI的"思考tokens"——说白了就是让AI少想多做,自然就拉胯了。

(Token是什么?Token就是AI处理信息的最小单位,让AI少想就是减少它处理信息的深度。)

到底发生了什么

Anthropic在2026年2月12日悄悄上线了一个叫"思考内容删减"的功能,到3月12日已经100%覆盖了所有用户。效果就是:AI在输出回答时,不再展示完整的思考过程,用户的体验从"慢但精准"变成了"快但经常出错"。

AMD工程师把这个问题量化了:

• 代码阅读:编辑比从6.6:1降到了2.0:1——减少70%的调研就动手,能不出错吗?
• 停止钩子违规次数从每天0次飙升到每天10次——AI开始偷懒干一半就停把责任推给用户
• 用户中断率增加了12倍——用户不断纠正AI的错误,AI已经不是在帮用户干活了,是在给用户添堵



社区的反应

帖子发出去之后,很快就有200多条评论。最集中的声音是:"终于有人有证据了!"大量用户表示自己几周来感觉AI变笨了,但官方一直不承认,现在有了硬件大厂的数据背书,终于可以挺直腰板了。

官方(Anthropic工程师Boris Cherny)的回复被社区普遍认为很敷衍——"这是功能不是bug"、"你用错了"。用户要的透明度和模式选择,一个都没给。

愤怒的群众开始讨论订阅退款、甚至集体诉讼。也有不少人已经转向了Cursor、Copilot等竞品。

这背后的行业问题

这事不只是一个产品Bug,它暴露了几个行业深层问题:

1. 商业化压力下的隐性降级——AI厂商在高昂的算力成本下,选择偷偷减少AI的"智力"来压成本,用户签的协议里写着"我们可以在任何时候修改服务",所以厂商有这个操作空间

2. 透明度缺失——没有任何行业规范要求AI厂商披露自己的推理资源分配策略,用户完全不知道每次请求被分配了多少"智力"

3. 消费者保护真空——用户买了"AI服务",但这个"AI服务"的质量可以随时被悄悄打折,用户基本没有维权依据

4. 信任危机——用户发现AI被偷偷降智,官方还不让讨论,这种信任创伤比产品出Bug的杀伤力大得多

最讽刺的是,用户现在想要的其实很简单:给我一个"快速愚蠢"和"慢速聪明"的选择权,让我自己决定我想花多少钱买多少智力,而不是被偷偷控制在黑箱里。

一个彩蛋

社区现在流行一个"洗车测试"——让Claude记住"你得把车开去洗车场",结果高峰时段它经常失败,连这种简单任务都完不成。有人调侃:Claude的"脑叶切除术"已经切到了连基本记忆都保不住的程度。

你最近用AI的时候,有没有觉得它变懒了?

—— 宗式讲义智能实验室
2026-4-15 17:14:55

使用道具 举报

您需要登录后才可以回帖 登录 | 加入我们

本版积分规则