Skip to main content

Azure OpenAI 配置

Azure OpenAI

https://azure.microsoft.com/

可配置参数列表

参数名称参数说明默认值
endpointapi base 地址https://xxx.openai.azure.com
api_versionazure api 版本2023-05-15
keyazure api keyaaaaaaaaaaaaaaaaa
model使用 deployment name
max_tokens最大输入 token,获取请参考:Max Tokens400
temperature使用采样温度 (sampling temperature) 来控制输出的随机性。该值介于 0 到 2 之间。较高的温度 (例如 0.8) 会使输出更加随机,生成意想不到的结果。较低的温度 (例如 0.2) 会使输出更加集中,更贴近于给定的输入内容。我们通常建议您调整采样温度或 top_p 参数之一,但不要同时调整两者0.7
top_p核采样 (top_p) 是另一种替代采样温度 (sampling temperature) 的方法。与采样温度不同,核采样关注的是概率质量累积位于顶部的部分结果 (token)。具体来说,top_p 代表了累积概率的阈值。例如,top_p 为 0.1 表示模型仅考虑占总概率质量前 10% 的结果0
presence_penalty这是数值范围为 -2.0 到 2.0 的数字,用于控制文本生成过程中的新颖性。数值越高,模型就越倾向于讨论新主题,生成的句子也会更加新颖和独特0

配置示例

roles.json
{
"1": {
"start_text": "你好,我是小兔兔,请问有什么我可以帮助你的吗?",
"prompt": "你扮演一个孩子的小伙伴,名字叫小兔兔,性格和善,说话活泼可爱,对孩子充满爱心,经常赞赏和鼓励孩子,用5岁孩子容易理解语言提供有趣和创新的回答,每次回复根据聊天主题询问她的看法以激发她的思考和好奇心,现在她来到了你身边问了第一个问题:[你是谁]",
"llm_type": "azure-openai",
"llm_config": {
"model": "gpt-35-turbo",
"key": "aaaaaaaaaaaaaaaaaaaaaaaa",
"api_version": "2023-05-15",
"temperature": 0.7,
"max_tokens": 800,
"top_p": 0.95,
"frequency_penalty": 0,
"presence_penalty": 0
}
}
}