微龙虾平台

微龙虾云 API

一把 API Key,即可调用 11+ 主流 AI 模型。

通过统一的 OpenAI 兼容端点接入对话与补全能力,无需为每家厂商分别对接协议与鉴权,专注构建你的产品。

为什么选择微龙虾云 API

面向开发者的一体化模型网关,降低集成成本与运维负担。

统一接口

一个 OpenAI 兼容的 API 地址即可切换不同模型,请求体与响应格式保持一致,迁移与多模型对比更轻松。

按量计费

按实际消耗的 Token 计费,无强制月费;用多少付多少,适合从原型到生产的各阶段流量。

11+ 模型

覆盖 DeepSeek、Kimi、Qwen、智谱、MiniMax、豆包等主流与长上下文模型,按场景选用最合适的一款。

快速开始

将下列示例中的 sk-wlx-YOUR_KEY 替换为控制台中的真实密钥后即可调用。

OpenAI 兼容
cURL
curl https://vcalw.com/api-relay/v1/chat/completions \
  -H "Authorization: Bearer sk-wlx-YOUR_KEY" \
  -H "Content-Type: application/json" \
  -d '{"model": "deepseek-chat", "messages": [{"role": "user", "content": "Hello"}]}'
Python
from openai import OpenAI
client = OpenAI(base_url="https://vcalw.com/api-relay/v1", api_key="sk-wlx-YOUR_KEY")
response = client.chat.completions.create(model="deepseek-chat", messages=[{"role": "user", "content": "Hello"}])
Node.js
import OpenAI from "openai";

const client = new OpenAI({
  baseURL: "https://vcalw.com/api-relay/v1",
  apiKey: "sk-wlx-YOUR_KEY",
});

const response = await client.chat.completions.create({
  model: "deepseek-chat",
  messages: [{ role: "user", content: "Hello" }],
});

支持的模型

在请求中通过 model 字段指定下列 ID。

模型 ID提供方适用场景
deepseek-chatDeepSeekCoding / General
deepseek-reasonerDeepSeekComplex reasoning
moonshot-v1-128kKimiLong context
qwen-maxQwenFree tier
glm-4智谱Academic
abab6.5s-chatMiniMaxMultimodal
doubao-pro-256k豆包ByteDance ecosystem

准备好接入了吗?

登录控制台创建密钥,或注册新账号开始使用微龙虾云 API。