【教程】AI自动化测试MCP

分享一个我最近开源的 API 测试框架,专门解决 AI 编程助手写测试代码的痛点。

通过在 GitHub 上创建帐户来为 GalaxyXieyu/Api-Test-MCP 开发做出贡献。

背景

不知道大家有没有让 AI 写接口测试的经历?我之前用 Claude、Cursor 写测试,遇到了几个非常头疼的问题:

场景 1:重复劳动

每次让 AI 生成测试,都要重新描述项目结构、认证方式、断言风格。测 10 个接口,同样的 fixture 和 setup 代码能重复 10 遍。

场景 2:Token 黑洞

一个简单的登录接口测试,AI 生成 200 行代码。发现断言写错了,让它改,又生成 200 行。改 3 次,消耗 2000+ Token,最后还是自己手动改的。

场景 3:调试死循环

AI 生成的测试跑不通,报错信息贴给它,它改了一版还是不对。来回复 5 轮对话,问题还在,Token 已经烧了 5000+。

解决方案

传统方式:自然语言描述 → AI 生成完整代码 → 运行报错 → 贴报错 → AI 重新生成 → 循环…

本框架:自然语言描述 → AI 生成 YAML → 框架执行 → 直接定位问题 → 改 YAML 一行

这个框架的解决方案:

传统方式:自然语言描述 -> AI 生成完整代码 -> 运行报错 -> 贴报错 -> AI 重新生成 -> 循环...

本框架: 自然语言描述 -> AI 生成 YAML -> 框架执行 -> 直接定位问题 -> 改 YAML 一行

| 对比项 | 传统 AI 生成 | 本框架 |

| 测试 1 个接口 | ~200 行代码 | ~20 行 YAML |

| 修改断言逻辑 | 重新生成全部代码 | 改 1-2 行 YAML |

| 10 个接口测试 | 重复 setup 10 次 | 共享配置,0 重复 |

| 调试一个问题 | 平均 3-5 轮对话 | 通常 1 轮 |

核心特性

| 特性 | 说明 |

| YAML 声明式用例 | 测试逻辑与执行代码分离,AI 只需生成结构化数据 |

| MCP Server | 与 Claude/Cursor 等 AI 编辑器无缝集成 |

| 接口 Workflow 编排 | 单文件支持多步骤接口调用,步骤间数据传递与断言 |

| 变量解析引擎 | 支持步骤间数据传递、全局变量、动态函数调用 |

| 自动认证管理 | Token 获取和刷新由框架处理 |

| 数据工厂 | 无需 Java 依赖,内置 Mock 数据生成 |

| 多格式测试报告 | Allure(离线/在线)、pytest-html(独立 HTML,美化样式) |

| 多渠道通知 | 钉钉、飞书、企业微信 |

| 单元测试 | 支持 Python 代码单元测试,Mock 依赖自动注入 |

快速开始

安装

1. 安装 uv(如果没有)

curl -LsSf https://astral.sh/uv/install.sh | sh

2. 安装 MCP 服务器(推荐:安装为 tool)

uv tool install git+https://github.com/GalaxyXieyu/Api-Test-MCP.git

验证

api-auto-test-mcp --help

管理工具

uv tool list

uv tool uninstall api-auto-test # 以 uv tool list 展示的 tool 名称为准

标签: none

评论已关闭