LLM Proxy

API 代理服务 - 支持 OpenAI 和 Anthropic 协议

简介

本服务提供 LLM API 代理,支持 OpenAI 和 Anthropic 两种协议,自动进行模型映射和协议转换。

API 端点

POST /v1/chat/completions OpenAI 协议
POST /v1/messages Anthropic 协议

可用模型

模型名称协议上游端点
qwen3.6-plus-freeOpenAI/zen/v1/chat/completions
minimax-m2.5-freeAnthropic/zen/v1/messages
big-pickleAnthropic/zen/v1/responses
mimo-v2-pro-freeAnthropic/zen/v1/responses
mimo-v2-omni-freeAnthropic/zen/v1/responses
nemotron-3-super-freeAnthropic/zen/v1/responses

模型映射规则

如果请求的模型名称不在可用模型列表中,将按以下规则映射:

claude-haiku-* → minimax-m2.5-free claude-sonnet-* → qwen3.6-plus-free

默认模型(未指定时):

OpenAI 协议 → qwen3.6-plus-free Anthropic 协议 → minimax-m2.5-free

协议转换

当请求协议与目标模型协议不匹配时,自动进行格式转换:

请求协议目标模型操作
OpenAIOpenAI 模型直接透传
AnthropicAnthropic 模型直接透传
OpenAIAnthropic 模型转换为 Anthropic 格式
AnthropicOpenAI 模型转换为 OpenAI 格式

认证方式

在请求头中传递 API Key:

Authorization: Bearer YOUR_API_KEY

或使用:

x-api-key: YOUR_API_KEY

请求示例

OpenAI 协议:

curl -X POST https://your-domain/v1/chat/completions \
  -H "Authorization: Bearer YOUR_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "qwen3.6-plus-free",
    "messages": [{"role": "user", "content": "Hello"}],
    "max_tokens": 1000,
    "stream": true
  }'

Anthropic 协议:

curl -X POST https://your-domain/v1/messages \
  -H "x-api-key: YOUR_API_KEY" \
  -H "anthropic-version: 2023-06-01" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "minimax-m2.5-free",
    "messages": [{"role": "user", "content": "Hello"}],
    "max_tokens": 1000
  }'