统一接口
一个 OpenAI 兼容的 API 地址即可切换不同模型,请求体与响应格式保持一致,迁移与多模型对比更轻松。
微龙虾平台
一把 API Key,即可调用 11+ 主流 AI 模型。
通过统一的 OpenAI 兼容端点接入对话与补全能力,无需为每家厂商分别对接协议与鉴权,专注构建你的产品。
面向开发者的一体化模型网关,降低集成成本与运维负担。
一个 OpenAI 兼容的 API 地址即可切换不同模型,请求体与响应格式保持一致,迁移与多模型对比更轻松。
按实际消耗的 Token 计费,无强制月费;用多少付多少,适合从原型到生产的各阶段流量。
覆盖 DeepSeek、Kimi、Qwen、智谱、MiniMax、豆包等主流与长上下文模型,按场景选用最合适的一款。
将下列示例中的 sk-wlx-YOUR_KEY 替换为控制台中的真实密钥后即可调用。
curl https://vcalw.com/api-relay/v1/chat/completions \
-H "Authorization: Bearer sk-wlx-YOUR_KEY" \
-H "Content-Type: application/json" \
-d '{"model": "deepseek-chat", "messages": [{"role": "user", "content": "Hello"}]}'from openai import OpenAI
client = OpenAI(base_url="https://vcalw.com/api-relay/v1", api_key="sk-wlx-YOUR_KEY")
response = client.chat.completions.create(model="deepseek-chat", messages=[{"role": "user", "content": "Hello"}])import OpenAI from "openai";
const client = new OpenAI({
baseURL: "https://vcalw.com/api-relay/v1",
apiKey: "sk-wlx-YOUR_KEY",
});
const response = await client.chat.completions.create({
model: "deepseek-chat",
messages: [{ role: "user", content: "Hello" }],
});在请求中通过 model 字段指定下列 ID。
| 模型 ID | 提供方 | 适用场景 |
|---|---|---|
| deepseek-chat | DeepSeek | Coding / General |
| deepseek-reasoner | DeepSeek | Complex reasoning |
| moonshot-v1-128k | Kimi | Long context |
| qwen-max | Qwen | Free tier |
| glm-4 | 智谱 | Academic |
| abab6.5s-chat | MiniMax | Multimodal |
| doubao-pro-256k | 豆包 | ByteDance ecosystem |