跳转到主要内容
POST
/
v1
/
chat
/
completions
对话 (Chat Completions)
curl --request POST \
  --url https://api.senseaudio.cn/v1/chat/completions \
  --header 'Authorization: Bearer <token>' \
  --header 'Content-Type: application/json' \
  --data '
{
  "model": "senseaudio-vl-1.0-260319",
  "messages": [
    {
      "role": "system",
      "content": "你是一个严谨的人工智能助手。"
    },
    {
      "role": "user",
      "content": "你好,请解释一下什么是黑洞?"
    }
  ],
  "temperature": 0.7,
  "stream": false
}
'
{
  "id": "chatcmpl-1234567890",
  "object": "chat.completion",
  "created": 1700000000,
  "model": "senseaudio-vl-1.0-260319",
  "system_fingerprint": "fp_xxxxxx",
  "choices": [
    {
      "index": 0,
      "message": {
        "role": "assistant",
        "content": "黑洞是宇宙中存在的一种天体,其引力极强..."
      },
      "finish_reason": "stop"
    }
  ],
  "usage": {
    "prompt_tokens": 28,
    "completion_tokens": 105,
    "total_tokens": 133
  }
}

Documentation Index

Fetch the complete documentation index at: https://docs.senseaudio.cn/llms.txt

Use this file to discover all available pages before exploring further.

说明

提供标准化的对话接口,兼容主流规范,支持多轮对话、工具调用 (Function Calling) 及多模态输入。
  • 接口地址POST https://api.senseaudio.cn/v1/chat/completions
  • Content-Typeapplication/json
  • 鉴权方式:Bearer Token,详见 快速接入
  • 流式输出stream: true 以 SSE 协议逐块返回;收到 data: [DONE] 标识流结束
  • 模型列表:见 模型列表
  • 计费:按输入 / 输出 token 计费,详见 计费说明

Authorizations

Authorization
string
必填
Bearer 鉴权头,格式为 Bearer SENSEAUDIO_API_KEY

Body

application/json
model
string
必填
调用的模型名称,例如 senseaudio-vl-1.0-260319
messages
object[]
必填
包含历史对话上下文和当前输入的消息列表。
tools
object[]
模型可调用的工具列表,主要用于 Function Calling 场景。
tool_choice
string | object
默认值:"auto"
控制模型调用工具的行为:none / auto / required,或指定函数对象 {type: 'function', function: {name: 'my_func'}}
stream
boolean
默认值:"false"
是否开启流式响应,开启后通过 SSE 协议逐块返回。
stream_options
object
流式响应选项(仅 stream=true 时有效)。
response_format
object
输出格式:{type: 'text'}(默认)、{type: 'json_object'}(强制 JSON)。
max_tokens
integer
限制生成的最大 token 数量。不设置则直至自然生成完毕或达到模型上限。
temperature
number
默认值:"1.0"
采样温度,范围 [0.0, 2.0]。值越高输出越随机,建议与 top_p 二选一调整。
top_p
number
默认值:"1.0"
核采样概率阈值,范围 [0.0, 1.0]
n
integer
默认值:"1"
为每条输入消息生成的回复选项数量。
stop
string | string[]
停止词序列(最多 4 个)。
frequency_penalty
number
默认值:"0.0"
频率惩罚系数,范围 [-2.0, 2.0]
presence_penalty
number
默认值:"0.0"
存在惩罚系数,范围 [-2.0, 2.0]
logit_bias
object
调整特定 token 出现的概率。键为 Token ID,值为偏差 [-100, 100]
logprobs
boolean
默认值:"false"
是否返回输出 token 的对数概率。
top_logprobs
integer
返回在每个位置最可能的 N 个 token 的概率(需开启 logprobs,范围 [0, 20])。
seed
integer
随机种子,用于尽可能的确定性采样。
user
string
最终用户的唯一标识,可用于协助监控及防滥用。

Response

200application/json
id
string
本次请求的唯一标识符。
object
string
对象类型。非流式为 "chat.completion";流式为 "chat.completion.chunk"
created
integer
生成成功的 Unix 时间戳(秒)。
model
string
实际响应的模型名称。
system_fingerprint
string
模型运行的后端配置系统指纹。
choices
object[]
模型生成的回复选项列表。
usage
object
Token 消耗统计。

流式响应示例

开启 stream: true 时,基于 SSE 协议逐块返回:
data: {"id":"chatcmpl-123","object":"chat.completion.chunk","created":1700000000,"model":"senseaudio-vl-1.0-260319","choices":[{"index":0,"delta":{"role":"assistant","content":""},"finish_reason":null}]}

data: {"id":"chatcmpl-123","object":"chat.completion.chunk","created":1700000000,"model":"senseaudio-vl-1.0-260319","choices":[{"index":0,"delta":{"content":"黑洞"},"finish_reason":null}]}

data: {"id":"chatcmpl-123","object":"chat.completion.chunk","created":1700000000,"model":"senseaudio-vl-1.0-260319","choices":[{"index":0,"delta":{},"finish_reason":"stop"}]}

data: [DONE]

错误处理

错误时返回非 200 状态码,响应体包含 error 对象:
error
object
错误对象。

相关指南

授权

Authorization
string
header
必填

格式:Bearer <API_KEY>

请求体

application/json
model
string
必填
示例:

"senseaudio-vl-1.0-260319"

messages
object[]
必填
tools
object[]
tool_choice
any

字段推断自素材文档

stream
boolean
默认值:false
stream_options
object
response_format
object
max_tokens
integer
示例:

1024

temperature
number
示例:

0.7

top_p
number
示例:

1

响应

200 - application/json

成功

字段推断自素材文档(兼容 OpenAI)

id
string
object
string
created
integer
model
string
choices
object[]
usage
object