目录

AI 能做事,不能扛事

AI杂谈·之三:价值判断、信任与意义——AI 碰不到的东西

凌晨三点的线上事故排查
凌晨三点,屏幕是唯一的光源。搞砸、扛住、被原谅——AI 没经历过这些。

前两篇发出来后,一个读者给我私信留言,提了几个很实在的问题。

他公司的测试团队因为质量不达预期被解散了,开发现在要背测试质量和 bug 全责。老板私下说,他的管理经验正在被 AI 时代冲击,想大幅缩减人数。他以前从不担心独立开发者,而现在很担心,因为一个人加 AI 就能复刻出一样甚至更优秀的产品。

他还问:既然你用 AI 顺手把 PM 和测试的活儿全干了,那放大一点,将来大部分中小公司是不是只需要几个人,借助 AI 把产品、测试、运维、安全、基础设施全扛起来?

这几个问题指向同一个盲区。前两篇讲了 AI 在能力层的缺口——感知现实有限、没有自驱力、做不到范式突破。这些是 AI"能不能"的问题,也是能力层里人仍然有优势的地方。

但读者问的不是 AI 能不能,而是人还剩什么

这是我的答案:AI 替代的是能力层里"已有解"的部分。但能力层之上,还有一层东西,AI 碰不到。我管它叫存在层:价值判断、信任、意义。


两层地图

先说清楚这个框架。

能力层:推理、编码、执行、解决问题,是"怎么做"和"能不能"。AI 在这层全面铺开,大部分事做得比人好。前两篇给 AI 画的三条线,即感知现实、自驱力、创新是这层里 AI 的三个缺口,也是人在这层最后的优势。

存在层:价值判断、信任、意义。即"值不值得做"、“谁来做”、“为什么而做”、“要不要做”。它不是技术问题,是你作为一个人,在组织、社会、文化里的位置问题。AI 在这层没有存在感,并不是因为它不够聪明,也是因为它没有作为"人"参与社会的资格。

往下说三个点。

能力层 — 「怎么做」「能不能」 推理 · 编码 · 执行 · 解决问题 AI 全面铺开,大部分事做得比人好 CRUD · 代码生成 · 测试用例 · 翻译 · 文档 AI 的三个缺口 感知现实 · 自驱力 · 范式创新 AI 替代「已有解」 人的优势 — 前两篇画的三条线 存在层 — 「值不值得做」「谁来做」「为什么而做」 价值 · 信任 · 意义 价值判断 性能 or 可维护?上线 or 打磨? AI 没有「我觉得」 信任 搞砸 → 扛住 → 被原谅 AI 没搞砸过,没扛过 意义 「这值得做吗?」 AI 不问为什么而做 AI 只能在能力层做题,进不了存在层做人

价值判断:AI 没有"我觉得"

回到那个读者的问题。pizza team 在技术上完全可行,但 pizza team 做不了的第一个东西是:做选择。

你做一个产品,每天遇到的选择不是技术问题,是价值观问题:

  • 性能优先还是可维护性优先?
  • 快速上线还是要打磨到满意?
  • 用户数据可以卖,还是不卖?
  • 出了事故是透明披露还是悄悄修掉?

这些不是 prompt 能描述清楚的问题。不是因为 AI 不够聪明,而是因为这些问题没有标准答案。它们的答案取决于你相信什么。

AI 能给你列出每个选项的 pros and cons,但它不能替你选。选择的那一刻,你投射出去的是你的价值观,不是你的推理能力。

就像前两篇反复出镜的 Karikó。数据站在对面,她选"继续",因为她相信原理是对的。这个"我相信",AI 没有。

再举一个近的例子。2026 年 5 月,antirez 发布 ds4,README 里特意补了一句:“如果你不接受 AI 辅助代码开发,这个软件不适合你。“这不是技术声明,是价值观声明。他在说:我选择这个开发方式,你如果不同意,可以不用。用 AI 写了 1500 行 C 代码发出来,还是选择手写,这本身是一个价值判断,不是一个能力问题。

小到一行代码的风格选择,大到职业生涯的方向切换,价值的权重永远在,AI 永远不背这个权重。


信任:人信人,不是信概率

pizza team 做不了的第二个东西是:让甲方签字。

你知道一个创业公司怎么拿下第一个大客户吗?不是技术方案写得比大厂好。是那个 CTO 飞了三趟北京,在客户会议室里被问了两个小时的刁钻问题,走的时候对方说了一句话:“你们团队人不多,但我信得过你。”

信任是人对人的。它不是对能力的评估——大厂能力更强。它是一种对"这个人搞砸过,然后扛住了”、“这个人说能做到,就是能做到”、“这个人上次出事故的时候,没有甩锅"的积累。

你签一个 SaaS 合同,服务可用性 SLA 写的是 99.9%。这个东西谁来赔付?AI 吗?是签合同的那个法人、那个公司、那个 CTO。对方买的是你的服务能力,但签合同的时候,他买的是你出事了会兜底。

这就是为什么 SOC 2、等保、合规审计这些东西审的都是人、流程、制度,不是 prompt 质量。不是技术不够先进,是法律体系不给非人主体留位置。

再往下说一层。团队内部的信任也是人对人的。我最信任的同事不是代码写得最好的那个,是上次线上炸了,凌晨三点我们俩一起盯着屏幕、一句废话没有、闷头排查了两个半小时的那个。这种信任来自脆弱性的共享——我们共同经历过糟糕的时刻,你知道对方在那时候是什么样子。

AI 没有"搞砸过"的概念。它不能跟你一起共情一个凌晨三点的线上事故。它不能犯过错后承担后果。而恰好是"搞砸”、“扛住”、“被原谅"构成了人与人之间最深的信任纽带。

所以,pizza team 能做出一个好产品,但签不下一个需要 SLA 的合同。不是因为产品不够好,是对方不知道该找谁负责。


意义:AI 不说"为什么”

最后一个点,存在层最深的地方。

AI 处理符号,人不只处理符号。人问:“这值得做吗?”

这是一个 AI 永远问不出来的问题。不是因为难度高,是因为"值得"不是一个可计算的量。它不来自数据分布,来自你对自己生命的感受。

一个程序员用 AI 三天写出了一个小 SaaS。功能完美,性能好,部署顺利。但三个月后他不维护了。不是因为技术上遇到了什么困难,而是因为他发现"帮人自动生成营销文案"这件事,他不觉得有意义。

另一个程序员,用 AI 花半年做了一个开源的教育工具,给偏远地区的孩子用。用户量不大,bug 还不少,但他每天晚上下班之后还在修。问他为什么,他说:“我小时候就没这个。”

这两个例子,AI 看不出区别。对 AI 来说,它们都是"代码已生成、测试已通过”。但第一个人会慢慢放弃,第二个人会一直做下去。区别不在能力层,而在意义层:你觉得什么东西值得你的时间。

自驱力的燃料其实是意义感。Karikó 相信 mRNA 值得做 40 年,Linus 觉得有个自己的操作系统是好玩的,antirez 觉得推理引擎不够快就得自己造一个——这些都不是功利计算。自驱力让你往前走,意义感告诉你值得往哪走。没有意义感撑着的自驱力,烧不了 40 年。

而"我觉得这事值",这种话 AI 说不出来。


你的护城河不在你能写多少行代码、能管多少台服务器、能覆盖多少种测试用例。AI 在这些事情上迟早超过你。

你的护城河是:你知道什么东西值得做,你敢为它负责,你愿意跟别人一起扛,只是因为你扛过。

测试团队被裁了,开发背上质量全责,短期看似降本,长期看是风险转嫁,只是延缓,治标不治本。因为质量不是测出来的,是被在乎出来的。你在乎,你就会测。你不在乎,把 test case 拷给你你也不会认真跑。

pizza team 能做出来。但做出来之后的事,比如谁签字、谁兜底、谁扛住凌晨三点的线上事故,答案不是"几个人加 AI"。答案是一个又一个具体的人,有名字、有脸、有自己搞砸过又被原谅的经历。

所以,不必恐惧。去问第一个问题,去做那个在乎的人。


本文是「AI杂谈」系列之三。上一篇:AI 不会问第一个问题 —— 自驱力与创新,为什么人的护城河不在"做"而在"问"。更早一篇:也谈谈 AI 编程 —— AI 的三大局限与三条行动建议。