智能问答接口文档
目录
接口描述
创建一个聊天完成请求,支持流式和非流式响应。该接口接收一系列消息作为输入,并返回模型生成的完成内容。 本协议在OpenAI的Chat Completions API基础上扩展,支持了reasoning_content字段。最新的完整的OpenAI Chat Completions API参数可以参考OpenAI Chat Completions API。
请求
HTTP 请求
POST /v1/chat/completions
请求体
| 参数 | 类型 | 必填 | 描述 |
|---|---|---|---|
| model | string | 是 | 要使用的模型 ID |
| messages | array | 是 | 包含对话历史的消息数组。根据使用的模型不同,支持不同的消息类型(模态),如文本、图像和音频 |
| tools | array | 否 | 模型可以调用的工具列表。目前仅支持函数作为工具。使用此参数提供模型可能生成JSON输入的函数列表。最多支持128个函数 |
| tool_choice | string/object | 否 | 控制模型是否调用工具。 - "none": 模型不会调用任何工具,而是生成消息- "auto": 模型可以在生成消息或调用一个或多个工具之间选择- "required": 模型必须调用一个或多个工具- 也可以通过对象指定特定工具: {"type": "function", "function": {"name": "my_function"}}当没有工具时,默认为 "none";有工具时,默认为"auto" |
| temperature | number | 否 | 采样温度,默认为 1。较低的值使输出更加确定性 |
| top_p | number | 否 | 核采样的概率质量,默认为 1 |
| n | integer | 否 | 为每个输入消息生成的聊天完成数量,默认为 1 |
| stream | boolean | 否 | 是否启用流式响应,默认为 false |
| stream_options | object | 否 | 流式响应选项,仅在 stream=true 时设置 |
| stop | string/array | 否 | 最多 4 个序列,API 将在生成这些序列时停止 |
| max_tokens | integer | 否 | 生成的最大令牌数 |
| presence_penalty | number | 否 | 存在惩罚,范围 -2.0 到 2.0,默认为 0 |
| frequency_penalty | number | 否 | 频率惩罚,范围 -2.0 到 2.0,默认为 0 |
| logit_bias | object | 否 | 修改指定令牌出现在完成中的可能性 |
| response_format | object | 否 | 指定模型必须输出的格式 |
| seed | integer | 否 | 用于确定性采样的种子值 |
| parallel_tool_calls | boolean | 否 | 是否允许并行工具调用 |
| user | string | 否 | 表示最终用户的唯一标识符 |
| 任意额外字段 | any | 否 | 支持传递任意额外的自定义参数,这些参数会被自动收集并传递给底层AI服务商 |