测试工程师的 AI Coding 指南
机制专题
如果你要把 QA 角色中的测试规则、技能能力、浏览器与终端入口拆开看,继续进入这些子页:
典型 AI Coding 场景
1. 测试用例生成
- 从需求文档生成测试用例
- 补充边界条件测试
- 生成测试数据
- 相关教程:Bugfix / Refactor / Test Runbook
2. 自动化测试脚本
- 生成单元测试代码
- 编写 E2E 测试脚本
- 生成 API 测试用例
- 相关工具:Claude Code 快速开始
3. 缺陷分析与复现
- 分析 bug 报告
- 生成缺陷复现步骤
- 编写回归测试
- 相关案例:Claude Code Bugfix Loop
4. 测试覆盖率分析
- 识别未覆盖代码路径
- 补充缺失测试用例
- 生成覆盖率报告
- 相关教程:工作流目录
5. 性能与压力测试
- 生成性能测试脚本
- 分析性能瓶颈
- 编写压力测试场景
- 相关案例:Codex Refactor with Verification
推荐工具与工作流
主入口选择
- 终端入口:Claude Code
- 执行栈:OpenAI Codex - 适合长链验证
- IDE-first:Cursor
推荐工作流
- Bugfix / Refactor / Test - 测试驱动
- Terminal-First Repo Pairing - 终端测试
- Workflow Playbook - 测试任务手册
默认训练包
| 当前阶段 | 建议先复制什么 | 目的 |
|---|---|---|
| 测试任务 kickoff | 测试计划 Brief 模板 | 锁定范围、环境和高优场景 |
| bug 已经出现 | 缺陷复现与回归模板 | 固定复现路径和回归边界 |
| 自动化与人工验证收口 | 命令与证据模板 | 让命令、截图和录屏成组出现 |
| 交接给开发或发布 owner | QA Handoff 模板 | 把状态、风险和待办收紧 |
想直接复制更稳的模板:去 QA 训练包模板。 想直接看一份填好的成品:去 示例:结算链路回归训练包。
可复用资产
规则文件模板
## QA Engineering Rules
- Write tests before fixing bugs (TDD)
- Ensure all tests are deterministic and repeatable
- Use meaningful test names that describe the scenario
- Mock external dependencies in unit tests
- Run full test suite before creating PR
- Document test data requirements
Prompt 模板
测试用例生成 Prompt:
根据以下需求生成测试用例:
需求描述:[功能描述]
验收标准:[验收标准]
请生成:
- 正常流程测试用例
- 边界条件测试用例
- 异常场景测试用例
- 性能测试用例
- 测试数据准备脚本
自动化测试脚本 Prompt:
生成自动化测试脚本:
- 测试框架:[Jest/Pytest/Selenium]
- 测试类型:[单元测试/集成测试/E2E测试]
- 测试场景:[场景描述]
- 断言条件:[预期结果]
- Mock 数据:[需要 mock 的依赖]
验证脚本
# 测试验证脚本
npm run test:unit -- --coverage
npm run test:integration
npm run test:e2e
npm run test:performance
跨团队交付物
给开发工程师
- 缺陷报告
- 测试用例清单
- 回归测试范围
- 测试环境配置
给产品经理
- 测试报告
- 质量评估
- 风险清单
- 发布建议
给运维工程师
- 性能测试报告
- 压力测试结果
- 监控指标建议
- 环境配置要求
给设计师
- 可访问性测试报告
- 多端适配测试结果
- 用户体验问题反馈