GPT/聊天(Chat) #
POST 创建聊天补全 #
POST https://api2.mygptlife.com/v1/chat/completions
给定一个提示,该模型将返回一个或多个预测的完成,并且还可以返回每个位置的替代标记的概率。
为提供的提示和参数创建完成
Body 请求参数
{
"model": "gpt-3.5-turbo",
"messages": [
{
"role": "system",
"content": "You are a helpful assistant."
},
{
"role": "user",
"content": "Hello!"
}
]
}
请求参数 #
名称 | 位置 | 类型 | 必选 | 说明 |
---|---|---|---|---|
Content-Type | header | string | 是 | none |
Accept | header | string | 是 | none |
Authorization | header | string | 否 | none |
body | body | object | 否 | none |
» model | body | string | 是 | 要使用的模型的 ID。有关哪些模型可与聊天 API 一起使用的详细信息,请参阅模型端点兼容性表。 |
» messages | body | [object] | 是 | 至今为止对话所包含的消息列表。Python 代码示例。 |
»» role | body | string | 否 | none |
»» content | body | string | 否 | none |
» temperature | body | integer | 否 | 使用什么采样温度,介于 0 和 2 之间。较高的值(如 0.8)将使输出更加随机,而较低的值(如 0.2)将使输出更加集中和确定。 我们通常建议改变这个或top_p 但不是两者。 |
» top_p | body | integer | 否 | 一种替代温度采样的方法,称为核采样,其中模型考虑具有 top_p 概率质量的标记的结果。所以 0.1 意味着只考虑构成前 10% 概率质量的标记。 我们通常建议改变这个或temperature 但不是两者。 |
» n | body | integer | 否 | 默认为 1 |
» stream | body | boolean | 否 | 默认为 false 如果设置,则像在 ChatGPT 中一样会发送部分消息增量。标记将以仅数据的服务器发送事件的形式发送,这些事件在可用时,并在 data: [DONE] 消息终止流。Python 代码示例。 |
» stop | body | string | 否 | 默认为 null 最多 4 个序列,API 将停止进一步生成标记。 |
» max_tokens | body | integer | 否 | 默认为 inf |
» presence_penalty | body | number | 否 | -2.0 和 2.0 之间的数字。正值会根据到目前为止是否出现在文本中来惩罚新标记,从而增加模型谈论新主题的可能性。 查看有关频率和存在惩罚的更多信息。(opens new window) |
» frequency_penalty | body | number | 否 | 默认为 0 -2.0 到 2.0 之间的数字。正值根据文本目前的存在频率惩罚新标记,降低模型重复相同行的可能性。 有关频率和存在惩罚的更多信息。 |
» logit_bias | body | null | 否 | 修改指定标记出现在补全中的可能性。 |
» user | body | string | 否 | 代表您的最终用户的唯一标识符,可以帮助 OpenAI 监控和检测滥用行为。了解更多 (opens new window)。 |
» response_format | body | object | 否 | 指定模型必须输出的格式的对象。 将 { “type”: “json_object” } 启用 JSON 模式,这可以确保模型生成的消息是有效的 JSON。 重要提示:使用 JSON 模式时,还必须通过系统或用户消息指示模型生成 JSON。如果不这样做,模型可能会生成无休止的空白流,直到生成达到令牌限制,从而导致延迟增加和请求“卡住”的外观。另请注意,如果 finish_reason=”length”,则消息内容可能会被部分切断,这表示生成超过了 max_tokens 或对话超过了最大上下文长度。 显示属性 |
» seen | body | integer | 否 | 此功能处于测试阶段。如果指定,我们的系统将尽最大努力确定性地进行采样,以便使用相同的种子和参数进行重复请求应返回相同的结果。不能保证确定性,您应该参考 system_fingerprint 响应参数来监控后端的更改。 |
» tools | body | [string] | 是 | 模型可以调用的一组工具列表。目前,只支持作为工具的函数。使用此功能来提供模型可以为之生成 JSON 输入的函数列表。 |
» tool_choice | body | object | 是 | 控制模型调用哪个函数(如果有的话)。none 表示模型不会调用函数,而是生成消息。auto 表示模型可以在生成消息和调用函数之间进行选择。通过 {“type”: “function”, “function”: {“name”: “my_function”}} 强制模型调用该函数。 如果没有函数存在,默认为 none。如果有函数存在,默认为 auto。 显示可能的类型 |
详细说明 #
» n: 默认为 1 为每个输入消息生成多少个聊天补全选择。
» max_tokens: 默认为 inf 在聊天补全中生成的最大标记数。
输入标记和生成标记的总长度受模型的上下文长度限制。计算标记的 Python 代码示例。
» logit_bias: 修改指定标记出现在补全中的可能性。
接受一个 JSON 对象,该对象将标记(由标记器指定的标记 ID)映射到相关的偏差值(-100 到 100)。从数学上讲,偏差在对模型进行采样之前添加到模型生成的 logit 中。确切效果因模型而异,但-1 和 1 之间的值应减少或增加相关标记的选择可能性;如-100 或 100 这样的值应导致相关标记的禁用或独占选择。
返回示例
OK
{
"id": "chatcmpl-123",
"object": "chat.completion",
"created": 1677652288,
"choices": [
{
"index": 0,
"message": {
"role": "assistant",
"content": "\n\nHello there, how may I assist you today?"
},
"finish_reason": "stop"
}
],
"usage": {
"prompt_tokens": 9,
"completion_tokens": 12,
"total_tokens": 21
}
}
返回结果 #
状态码 | 状态码含义 | 说明 | 数据模型 |
---|---|---|---|
200 | OK(opens new window) | OK | Inline |
返回数据结构 #
状态码 200
名称 | 类型 | 必选 | 约束 | 中文名 | 说明 |
---|---|---|---|---|---|
» id | string | true | none | none | |
» object | string | true | none | none | |
» created | integer | true | none | none | |
» choices | [object] | true | none | none | |
»» index | integer | false | none | none | |
»» message | object | false | none | none | |
»»» role | string | true | none | none | |
»»» content | string | true | none | none | |
»» finish_reason | string | false | none | none | |
» usage | object | true | none | none | |
»» prompt_tokens | integer | true | none | none | |
»» completion_tokens | integer | true | none | none | |
»» total_tokens | integer | true | none | none |