跳转到主要内容
POST
/
api
/
v1
/
messages
curl https://aireiter.com/api/v1/messages \
  -H "x-api-key: $API_KEY" \
  -H "anthropic-version: 2023-06-01" \
  -H "content-type: application/json" \
  -d '{
    "model": "claude-sonnet-4-5-20250929",
    "max_tokens": 1024,
    "messages": [
      {"role": "user", "content": "你好,世界"}
    ]
  }'
{
  "id": "msg_01XFDUDYJgAACzvnptvVoYEL",
  "type": "message",
  "role": "assistant",
  "content": [
    {
      "type": "text",
      "text": "你好!我是Claude,很高兴见到你。"
    }
  ],
  "model": "claude-sonnet-4-5-20250929",
  "task_id": "v1api_01XFDUDYJgAACzvnptvVoYEL",
  "stop_reason": "end_turn",
  "stop_sequence": null,
  "usage": {
    "input_tokens": 12,
    "output_tokens": 18,
    "cache_creation_input_tokens": 0,
    "cache_read_input_tokens": 0
  }
}

Authorizations

x-api-key
string
必填
API 密钥,用于身份验证(Anthropic SDK 标准方式)获取 API Key:访问 API Key 管理页面 获取您的 API Key
x-api-key: YOUR_API_KEY
也支持 Bearer Token 格式:
Authorization: Bearer YOUR_API_KEY

Body

model
string
必填
模型名称
  • claude-haiku-4-5-20251001 — 轻量快速,适合高频简单任务
  • claude-sonnet-4-5-20250929 — 平衡性能与成本,综合推荐
  • claude-sonnet-4-6 — Sonnet 新版,性能更强
  • claude-opus-4-5-20251101 — 旗舰推理模型,适合复杂分析
  • claude-opus-4-6 — Opus 新版,能力最强
完整模型列表请查询:GET /api/v1/models
messages
array
必填
消息列表消息数组,模型会基于这些消息生成下一条回复。每条消息包含 rolecontent 两个字段。快速填写(Try it 区域):
  1. 点击 ”+ Add an item” 添加一条消息
  2. role 输入:user(用户消息)或 assistant(AI回复,用于多轮对话)
  3. content 输入:你想说的话
单条用户消息示例:
[{"role": "user", "content": "你好,Claude"}]
多轮对话示例:
[
  {"role": "user",      "content": "你好"},
  {"role": "assistant", "content": "你好!我是Claude。"},
  {"role": "user",      "content": "能解释一下AI吗?"}
]
预填充助手回复:
[
  {"role": "user",      "content": "太阳的希腊名称是?(A) Sol (B) Helios (C) Sun"},
  {"role": "assistant", "content": "答案是 ("}
]
max_tokens
integer
必填
最大输出 Token 数控制模型最多生成的 token 数量,模型可能在达到上限前自然结束。最小值:1不同模型有不同的上下文窗口上限,请参考模型文档。
system
string | array
系统提示词设置模型的角色、指令和背景信息。字符串格式(推荐):
{"system": "你是一位专业的 Python 编程导师,用中文回答所有问题。"}
结构化格式(支持 cache_control):
{
  "system": [
    {
      "type": "text",
      "text": "你是一位专业的 Python 编程导师。",
      "cache_control": {"type": "ephemeral"}
    }
  ]
}
stream
boolean
是否启用流式输出设为 true 时,通过 SSE(Server-Sent Events)实时流式返回。默认 true。如需非流式响应,需显式传入 "stream": false流式事件顺序: pingmessage_startcontent_block_startcontent_block_delta × N → content_block_stopmessage_deltamessage_stop
temperature
number
温度,范围 0–1
  • 低值(如 0.2):输出更确定、保守
  • 高值(如 0.8):输出更随机、有创意
默认 1.0。不建议与 top_p 同时使用。
top_p
number
核采样参数,范围 0–1从累积概率达到 top_p 的 token 集合中采样。默认 1.0。 不建议与 temperature 同时使用。
top_k
integer
Top-K 采样只从概率最高的 K 个 token 中采样,过滤低概率长尾。适合高级用例调优。

Response

id
string
消息唯一标识符示例:"msg_01XFDUDYJgAACzvnptvVoYEL"
type
string
对象类型,固定为 "message"
role
string
角色,固定为 "assistant"
content
array
内容块数组文本内容:
[{"type": "text", "text": "你好!我是 Claude。"}]
内容类型:text(文本)
model
string
实际处理请求的模型名称
stop_reason
string
停止原因
  • end_turn — 自然结束
  • max_tokens — 达到 max_tokens 上限
  • stop_sequence — 触发了自定义停止序列
stop_sequence
string | null
若因停止序列而停止,返回触发的序列内容;否则为 null
usage
object
Token 使用统计
curl https://aireiter.com/api/v1/messages \
  -H "x-api-key: $API_KEY" \
  -H "anthropic-version: 2023-06-01" \
  -H "content-type: application/json" \
  -d '{
    "model": "claude-sonnet-4-5-20250929",
    "max_tokens": 1024,
    "messages": [
      {"role": "user", "content": "你好,世界"}
    ]
  }'
{
  "id": "msg_01XFDUDYJgAACzvnptvVoYEL",
  "type": "message",
  "role": "assistant",
  "content": [
    {
      "type": "text",
      "text": "你好!我是Claude,很高兴见到你。"
    }
  ],
  "model": "claude-sonnet-4-5-20250929",
  "task_id": "v1api_01XFDUDYJgAACzvnptvVoYEL",
  "stop_reason": "end_turn",
  "stop_sequence": null,
  "usage": {
    "input_tokens": 12,
    "output_tokens": 18,
    "cache_creation_input_tokens": 0,
    "cache_read_input_tokens": 0
  }
}

使用示例

基础对话

import anthropic

client = anthropic.Anthropic(
    api_key="YOUR_API_KEY",
    base_url="https://aireiter.com/api"
)

message = client.messages.create(
    model="claude-sonnet-4-5-20250929",
    max_tokens=1024,
    messages=[
        {"role": "user", "content": "解释量子计算的基本原理"}
    ]
)

print(message.content[0].text)

系统提示词 + 多轮对话

message = client.messages.create(
    model="claude-sonnet-4-5-20250929",
    max_tokens=1024,
    system="你是一位资深 Python 开发专家,擅长代码审查和优化建议。",
    messages=[
        {"role": "user",      "content": "什么是装饰器?"},
        {"role": "assistant", "content": "装饰器是 Python 的语法糖,用于..."},
        {"role": "user",      "content": "能给我一个实际项目中的例子吗?"}
    ]
)

流式响应

with client.messages.stream(
    model="claude-sonnet-4-5-20250929",
    max_tokens=1024,
    messages=[{"role": "user", "content": "写一篇关于 AI 的短文"}]
) as stream:
    for text in stream.text_stream:
        print(text, end="", flush=True)

视觉理解

# URL 图像
message = client.messages.create(
    model="claude-sonnet-4-5-20250929",
    max_tokens=1024,
    messages=[
        {
            "role": "user",
            "content": [
                {
                    "type": "image",
                    "source": {"type": "url", "url": "https://example.com/chart.png"}
                },
                {"type": "text", "text": "描述这张图表的趋势"}
            ]
        }
    ]
)

# Base64 图像
import base64

with open("image.jpg", "rb") as f:
    image_data = base64.b64encode(f.read()).decode("utf-8")

message = client.messages.create(
    model="claude-sonnet-4-5-20250929",
    max_tokens=1024,
    messages=[
        {
            "role": "user",
            "content": [
                {
                    "type": "image",
                    "source": {
                        "type": "base64",
                        "media_type": "image/jpeg",
                        "data": image_data
                    }
                },
                {"type": "text", "text": "分析这张图片"}
            ]
        }
    ]
)

流式响应事件格式

event: ping
data: {"type":"ping"}

event: message_start
data: {"type":"message_start","message":{"id":"msg_xxx","type":"message","role":"assistant","content":[],"model":"claude-sonnet-4-5-20250929","stop_reason":null,"stop_sequence":null,"usage":{"input_tokens":25,"output_tokens":0}}}

event: content_block_start
data: {"type":"content_block_start","index":0,"content_block":{"type":"text","text":""}}

event: content_block_delta
data: {"type":"content_block_delta","index":0,"delta":{"type":"text_delta","text":"你好"}}

event: content_block_stop
data: {"type":"content_block_stop","index":0}

event: message_delta
data: {"type":"message_delta","delta":{"stop_reason":"end_turn","stop_sequence":null},"usage":{"output_tokens":18}}

event: message_stop
data: {"type":"message_stop"}

注意事项

  1. 认证方式:支持 x-api-key 请求头或 Authorization: Bearer 两种方式,Anthropic 官方 SDK 默认使用前者。
  2. 积分不足:余额不足时返回 HTTP 402,请充值后重试。
  3. 流式断线重连:客户端应实现 SSE 重连机制,连接中断时根据已接收内容判断是否需要重新请求。
  4. 模型选择建议
    • Haiku — 高频简单问答,成本最低
    • Sonnet — 代码生成、文档处理,综合推荐
    • Opus — 复杂推理、长文分析,能力最强