用 AI 辅助工作久了会发现:说清楚了,几秒钟就能拿到能用的东西;说不清楚,要么来回改,要么干脆弃用。要提高输出质量,光会「说话」还不够,任务怎么拆、上下文怎么管、结果怎么验证,都会影响最终能不能直接用。这篇记录几块我觉得比较有用的通用实践。
一、提示词:把需求当单子开
很多人习惯随口一说「写个分页组件」,AI 会给,但框架、样式、接口可能跟项目接不上。别当聊天,当在写一份精简版需求单。
至少要交代几块:技术栈和场景(在什么项目里、用什么技术)、相关代码直接贴(别用自然语言描述,AI 读代码更准)、任务拆成编号步骤、划清「不许做什么」(不用某库、不要省略实现、不要用 ... 占位)。有风格要求就贴一段参照:「按这个写法来」。
可复用的结构大致是:技术栈/场景 → 相关代码/数据 → 具体要做的事(1.2.3.)→ 限制条件 → 输出要求。简单需求只留「要做的事」和「限制」;复杂需求再往上加。
二、任务拆分:一次只做一件事
让 AI 一次改五个文件、实现三个功能,很容易漏、乱、前后不一致。大需求拆小,一次对话只盯一个目标。 比如「重构登录模块」拆成:先改验证逻辑 → 再改 UI 组件 → 再对接新接口。每步都有明确边界,出问题也好定位。
三、上下文该清就清
对话拉长之后,AI 容易忘前面的约定,或者被旧上下文带偏。感觉它在答非所问、反复犯同样的错,直接开新对话。 把关键信息(技术栈、约束、当前进度)在新对话里重新交代一遍,比在长对话里来回纠正效率高。
多轮对话时,重要信息尽量在最新一轮重提一次;最想让它「此刻做」的事,放在最后、写清楚。
四、结果别信了就算完
AI 生成的代码能跑,不代表逻辑对、边界没问题。关键逻辑自己过一眼,该跑一下跑一下,该单测测单测。 尤其是涉及数据、权限、金额的,不能直接上线。把 AI 当副驾,最后拍板的还是人。
五、配置先行:少每次都重复说
项目里有固定约定(命名规范、目录结构、必须用的库),写在 .cursor/rules 或项目文档里,让 AI 事先能读到。这样每次不必反复交代「我们用的是 xxx」「别用 yyy」。配置一次,后面每次对话都生效。
六、Skill vs Agent:通用工作流里的职责分工
在 Cursor/Claude 这类生态里,Skill 和 Agent 本质上是在做同一件事:让 AI 输出更稳定、更省心。区别在于它们更擅长的“环节”不一样。
- Skill 更像“风格与规则的知识库”:把你希望 AI 一贯遵守的口径、约束、检查清单固化下来,让它在回答时自然套用。
- Agent 更像“任务与执行的分工”:当事情需要多步推进、需要工具协作或需要按流程把结果做出来时,把工作交给更合适的执行单元。
你可以用一个很实用的选择标准:
| 你希望 AI 做什么 | 更适合 Skill | 更适合 Agent |
|---|---|---|
| 输出稳定、格式一致、按约定交付 | 是 | 否(或仅辅助) |
| 需要多步计划与执行(包含多轮迭代) | 部分是 | 是 |
| 需要严格校验“做没做对” | 是(作为检查项) | 是(作为流程的一部分) |
常见组合用法是:先用 Skill 把“该怎么写、该遵守什么”定死,再用 Agent 去完成“把这件事做完并交付”。把二者分工清楚,你的工作流会更可复用,也更不容易在忙的时候崩掉。
评论 · Comments
评论由 Giscus 提供,需用 GitHub 账号登录;留言会同步到这个仓库的 Discussions 里。