最近在多个项目里和 AI 协作了一把,有了一个越来越清晰的感受:AI 能帮你完成 80% 的工作,但剩下的 20% 才是真正见功底的地方。
没那么神,但也没那么糟
不是说 AI 不好用。恰恰相反,现在的 AI 在代码生成、文档起草、技术调研这些事儿上已经相当靠谱了。但当你追求的是"可上线"而不是"可以跑"的时候,那 20% 的人工介入就躲不掉。
具体场景里,这种 Gap 体现在:
文档撰写:AI 写的东西读起来四平八稳,但总感觉差点火候。措辞的拿捏、格式的讲究、关键观点的突出,这些"看起来很简单"的事情 AI 往往处理得中规中矩。
代码生成:边界条件、异常处理、特殊情况——这些 AI 经常漏掉。不是它不懂,而是它不知道你的业务里那些"约定俗成"的细节。
系统配置:生产环境的参数调优、监控告警阈值、安全加固策略,AI 能给出一个像模像样的模板,但最终还是要靠人确认。
汇报材料:这个最明显。AI 整理的信息往往是"全"的,但缺乏"重点"。哪些该详、哪些该略、怎么把技术细节讲成人话,这活儿 AI 干不来。
为什么会这样
我自己总结了几个原因:
隐性知识:很多业务上下文里的东西,我们自己都没意识已经"默认"了,AI 更不可能知道。
效果阈值:AI 输出通常是"可用"到"不错",但要达到"完美",那一点手动调整的性价比最高。
反馈闭环:让 AI 自己迭代到完美太慢了,不如人改一下马上好。
怎么应对
折腾久了,总结了一套还算实用的做法:
- 接受 80/20 定律:别指望 AI 一次性搞定一切,定好这个预期,协作效率反而更高。
- 明确人工节点:在使用 AI 的时候,主动标注哪些环节需要人确认,而不是让它自由发挥。
- 快速 Review 机制:与其等 AI 改来改去,不如人快速过一遍,指出问题让它改。
说白了,AI 是很强,但它强在"执行",人强在"判断"。把这个分工理清楚了,协作效率就上去了。
本篇记录于 2026-03-04,是 AI 协作系列的第一篇后续思考。