Qwen2.5-32B-Instruct
组成对话的消息列表。
消息发送者的角色。
system、user、assistant消息的内容。
1~1000用于控制服务器返回响应数据的方式。
true、false本次对话的调用模式。
FASTEST(极速)、STANDARD(标准)、ECONOMICAL(经济)、BATCH_FASTEST(批量极速)、BATCH_STANDARD(批量标准)、BATCH_ECONOMICAL(批量经济)用于指定模型在生成回复时最多可以产生的token数量。
-是否返回token用量统计。
-用作生成停止信号。
最多4个序列每个提示生成多少个对话。
[1,128]控制大语言模型生成时的随机性,以实现可重复的结果。通过设置一个固定的起始值,让模型在相同输入下尽可能输出相同或相似的内容。
-1~4294967295控制模型生成文本中词语重复程度的参数。
[-2,2]用于减少文本生成中内容重复的参数。
[1,2]控制模型生成时的随机性大小。
[0,2]通过动态保留累积概率达到阈值的最可能token来平衡质量与多样性。
[0,1]通过固定保留概率最高的k个token来控制候选池大小。
[1,21]&[21,128]表示一个tokens被考虑的最小概率的浮动值,相对于最有可能的tokens的概率。
[0,1]修改指定tokens在对话中出现的可能性。
-是否返回输出tokens的对数概率。
true、false指定在每个tokens位置返回的最可能的tokens数量,每个tokens都有一个关联的对数概率。
[0,20]特定的输出格式。
text是否将 “思考内容” 单独放入 “reasoning_content” 字段中。
true、false是否开启思考模式。
true、false响应的唯一标识符。
对象类型,为chat.completion。
响应生成的Unix时间戳(以秒为单位)。
用于对话的模型。
生成的对话列表。
对话选择的索引。
生成的对话列表。
消息作者的角色,可选值:system、user或assistant。
消息的内容。
思考内容。
模型停止生成tokens的原因。如果模型遇到自然停止点或提供的停止序列,则为stop;如果请求中指定的最大tokens数量已达到,则为length。
使用统计。对于流式回复,usage字段被包含在返回的最后一个回复块中。
对话生成的tokens数。
prompt中的tokens数。
请求中使用的总tokens数(即prompt + completion)。
curl --location 'https://cloud.baicaiinfer.com/v1/chat/completions' \
--header 'Authorization: Bearer sk-VStOhW7gwGTcy5lFuDg*****' \
--header 'Content-Type: application/json' \
--data-raw '{
"model": "Qwen2.5-32B-Instruct",
"messages": [
{
"role": "user",
"content": "请介绍一下你自己?"
}
]
}'{
"id": "chatcmpl-26a0b05d520e42bcb2a55035bda70eca",
"object": "chat.completion",
"created": 1761016758,
"model": "Qwen2.5-32B-Instruct",
"choices": [
{
"index": 0,
"message": {
"role": "assistant",
"content": "我是Qwen,由阿里云开发的大型语言模型。我的设计旨在帮助用户生成各种文本内容,包括但不限于文章、故事、诗歌、邮件等,并能够进行问题解答和对话交流。无论是在学习、工作还是日常生活中遇到的问题,我都希望能够提供支持与帮助。如果您有任何问题或需要帮助,请随时告诉我!",
"refusal": null,
"annotations": null,
"audio": null,
"function_call": null,
"tool_calls": [],
"reasoning_content": null
},
"logprobs": null,
"finish_reason": "stop",
"stop_reason": null,
"token_ids": null
}
],
"service_tier": null,
"system_fingerprint": null,
"usage": {
"prompt_tokens": 347,
"total_tokens": 438,
"completion_tokens": 91,
"prompt_tokens_details": null
},
"prompt_logprobs": null,
"prompt_token_ids": null,
"kv_transfer_params": null
}