AI API 中转站质量检测
输入 Base URL 和 API Key,快速检测模型列表、聊天接口、流式响应、首 Token 延迟和 OpenAI 兼容性风险。适合在购买前、长期使用前,先做一次技术验证。
检测信号与备注
高级原始响应
请求载荷
{}
/v1/models
{}
/v1/chat/completions
{}
/v1/chat/completions (stream)
{}
这个工具在检查什么
1)请求 /v1/models 看模型列表能不能正常返回。2)发送一次非流式聊天补全。3)发送一次流式请求,测首个 Token 延迟和总耗时。
适合什么场景
当你拿到一个声称“OpenAI 兼容”的中转站、网关或代理接口时,这个页面可以帮助你判断它是不是至少在技术层面够用。只有兼容性还不够, 一个很慢的接口即使形式上通过,也会让真实聊天体验很差。
如何理解结果
通过表示这几个核心调用符合 OpenAI 风格接口形状。
快、可用、慢、很慢,综合聊天延迟、TTFT 和流式总耗时得出。
首个 Token 延迟最影响聊天体感。2 秒内通常不错,2 到 6 秒基本可用。
这个工具不能绝对证明什么
它不能绝对鉴定“掺水”或服务来源,只能提供质量信号和疑似风险。你可以把它当作购买前、使用前的低成本技术筛查,而不是完整审计。
FAQ
什么是 AI API 中转站质量检测?
它会检查 AI 接口响应有多快、首个 Token 多久出来,以及流式输出是否正常。
什么是 TTFT?
TTFT 就是 Time to First Token,代表用户在聊天界面里感受到的第一次等待时间。
通过就代表这个中转站一定靠谱吗?
不是。通过只说明这次测试里它能跑通,而且接口格式看起来兼容,不代表长期稳定、价格合理或来源真实。
这个工具能判断掺水吗?
它更像风险筛查工具,能发现慢、坏、兼容性差的问题,但不构成绝对鉴定。
为什么每次测出来的延迟会变化?
网络路径、节点负载、模型选择和中转质量都会影响结果,所以建议多测几次再下结论。
会不会保存我的 API Key?
不会。Key 只用于当前测试请求,不做账号系统,也不做私钥存储。