← back to index
2026-04-27 · #15

在你说被 AI 养废之前,先把密度堆上去

"AI 把人养废了" 是 2026 年最流行的恐慌。但说这话的人,几乎全部是没真正密集用过 AI 的人。在没数据的时候喊养废,本质是用未来式的恐慌,合理化当下不行动的舒服。


GPT-5.5 出来一周,社交媒体上又有一波”AI 把人养废了”的浪潮。

文案模板都差不多:“以前我能自己写一段,现在张口就让 GPT 写。这一代人完了。” 或者 “以前我自己想一个 logo,现在直接画图 prompt。审美能力还有救吗?”

每次看到这种叙事,我都想问一个问题:

你真的密集用过吗?

喊”被养废”的人,几乎都没真正用过

这个观察我攒了好几个月。在我能看到的大概几十个喊”被 AI 养废”的人里,绝大部分是用过几次、觉得”哦不错”、然后偶尔再调用一下,就开始恐慌自己被养废了的状态。

他们用 AI 的密度,可能就是每周 5-10 个 prompt,每个对话三五轮就关掉。然后回头看自己 baseline 没退化(因为根本没动它),就开始替别人 / 替”这一代人” / 替”未来”担心。

但这种用量根本不构成”养废”的实验前提。养废的前提是依赖,依赖的前提是密度。一周用十次的人,跟一天用一百次的人,根本不在同一个观察样本里。

后者每天写代码、写邮件、画图、做研究、查资料、做决策几乎全程跟模型协作——这种人才有资格回答”我变弱了 / 没变弱”这个问题。前者只是在产 opinion,产恐慌,产一种形而上的优越感——以此对冲自己其实不够 frontier 的焦虑。

这个剧本以前演过

这种”新工具让人变弱”的恐慌从来不是新鲜事:

  • 1980 年代:计算器让小学生不会心算了。
  • 2000 年代:Google 让我们不会用百科全书了。
  • 2010 年代:GPS 让我们丧失了方向感。
  • 2020 年代:短视频让我们注意力降到 8 秒。
  • 现在:AI 让我们不会思考 / 不会写作 / 不会创造。

这些恐慌的共同点是:说话的人,既没有用工具用到极致,也没有用前一代手段用到极致。他们不在 frontier 上,他们站在中间地带,远远地评论。

真正用计算器用到极致的人(工程师、量化、科学家),没人在抱怨自己不会心算——他们用计算器解出了心算永远算不出的问题。真正用 GPS 用到极致的人(司机、外卖员、长途旅行者),也没人在抱怨自己丧失方向感——他们去到了过去靠方向感永远到不了的地方。

用得越深,问题越不在工具,而在你能用工具走到多远

但要 honest 接受两个反驳

在我说服自己之前,先 stress-test 这个立场。最难破的两个反驳是:

反驳 1:滑坡。 “用得多就更懂”在某些场景会反过来。抽烟用得多你最懂烟,但你也最难戒。如果 AI 让人变弱的本质是上瘾,那密度越高、上瘾越深,你”堆密度”的策略反而是在加速损害。

这个反驳的破法:AI 跟烟不一样,因为 AI 是生产工具,烟是消费品。生产工具用得多 → 你输出多 → 你的成果在市场上被反馈;消费品用得多 → 你只是消费多。一个用 AI 一天产出 5 篇文章 / 10 张图 / 3 个原型的人,跟一个用 AI 摸鱼一天的人,密度可能一样,但前者在被市场迭代,后者只是在被 dopamine 迭代。

所以问题不是”密度”,是”密度用在生产端还是消费端”。生产端的高密度,是放大器;消费端的高密度,才是上瘾。

反驳 2:Unknown unknowns。 你失去的能力你不知道你失去了。一个 5 年没自己写过完整 paragraph 的人,可能觉得自己写作能力没退化——因为他每天写作量没下降,只是都让 AI 写。直到他离开 AI 自己写一段,才发现已经 atrophied 了。

这个反驳更难破,而且我不打算硬破——我接受它。Self-assessment 在 atrophy 面前是不可靠的,你确实可能在被养废而不自知。

但这个反驳的逻辑结论不是”少用 AI”,是”定期做 control group 测试”。

我的最终立场:堆密度,但留 control group

“AI 让人变弱”是一个需要 control group 才成立的判断。

你需要 (a) 真正的密度——一天百次以上的协作量,而不是一周几次的尝试,(b) 定期关掉 AI,自己写一段、自己想一个问题、自己画一张图——作为 baseline 对照。

两个条件都满足了再下结论。在那之前,任何”我被 AI 养废了”或者”AI 没让我变弱”的判断,都没有数据支持,只是感受性发言。

我现在自己的实验是这样:

  • 工作日全程高密度用模型,生产端的事几乎都靠协作完成。
  • 每周留半天 AI-off,用来自己写一段长文 / 想一个没解决的问题 / 自己画一张草图。不是仪式感,是 baseline 测量——看自己离开 AI 之后,还在不在线
  • 如果某次 AI-off 我发现写一段话写不出来 / 想一个问题想不动 / 画一张草图无从下手——那就是养废了的信号,需要修复(增加 baseline 时间)。
  • 如果 AI-off 时一切正常——那密度可以继续堆,我没废。

这个方法论的好处是:它不依赖你 self-report,它依赖你的 baseline 行为。Self-report 会骗你,baseline 不会。

真正的问题:不是”用不用”,是”谁用得更好”

再退一步看,“AI 让人变弱”这个讨论本身,在 5 年后会变成一个 false framing。

AI 越来越好用、门槛越来越低、覆盖场景越来越广——这是不可逆的 trend。没有人能阻止它的普及,也没有人能在工作里持续不用它(除了刻意 retreat 到极少数 niche)。

所以再过几年,所有人都会用 AI——就像 30 年前”用不用 Excel”是个问题,今天没人会问这个问题。Excel 不是问题,Excel 用得多好才是问题。

AI 也一样。再过几年,“会不会被 AI 养废”将不再有任何信息量——因为所有同行都在用,你独自抵抗只是把自己 throughput 做低,完全无法证明你”没废”,反而证明你掉队了

真正的竞争问题会变成:

  • 谁能用 AI 拆出更精准的子任务?
  • 谁能跟 AI 协作出更高质量的 output?
  • 谁能在 AI 输出之外加上自己的判断、审美、上下文,让最终成果不可替代?
  • 谁能用 AI 解到原本一个人解不动的问题?

这些都不是”用 vs 不用”的问题,是”用法的精度”的问题。

而精度,只有在密度堆上去之后才能磨出来。每周 5 个 prompt 的人,根本没机会发现”对某类问题这个模型更行、对另一类那个 prompt 结构更稳、跟某个 agent 多轮协作要先 set context 还是先给 example”——这种细粒度的判断,只有日常成百上千次协作中才能迭代出来。

所以”养不养废”是一个防御性的伪命题。真正的进攻性问题是:5 年后所有人都在用 AI 的世界里,你比别人多懂多少?

不要做未来式的恐慌

未来式的恐慌是 epistemic cowardice 的一种——你用一个还没发生的损失,合理化你当下的不行动

如果你真的担心 AI 让你变弱,最负责任的做法不是少用,是先用到 frontier,然后定期测自己。前者让你有数据,后者让你能诚实评估自己。

在你没堆过密度之前,所有的”被养废”焦虑,都不是在讨论 AI——是在讨论你自己当下的不安。