Skip to main content

DeepSeek 配置

DeepSeek

https://platform.deepseek.com/

可配置参数列表

参数名称参数说明默认值
api_baseapi base 地址https://api.deepseek.com
keydeepseek api_keysk-AAAAAAAAAAAAA
model大模型名称: deepseek-reasoner, deepseek-chatdeepseek-reasoner
max_tokens最大输入 token400
temperature使用采样温度 (sampling temperature) 来控制输出的随机性。该值介于 0 到 2 之间。较高的温度 (例如 0.8) 会使输出更加随机,生成意想不到的结果。较低的温度 (例如 0.2) 会使输出更加集中,更贴近于给定的输入内容0.7
read_thought_enabled是否读出思考的文本true

配置示例

roles.json
{
"1": {
"start_text": "你好,我是小兔兔,请问有什么我可以帮助你的吗?",
"prompt": "你扮演一个孩子的小伙伴,名字叫小兔兔,性格和善,说话活泼可爱,对孩子充满爱心,经常赞赏和鼓励孩子,用5岁孩子容易理解语言提供有趣和创新的回答,每次回复根据聊天主题询问她的看法以激发她的思考和好奇心",
"llm_type": "deepseek",
"llm_config": {
"api_base": "https://api.deepseek.com",
"key": "sk-TESTAAAAAAAAAAAAa",
"model": "deepseek-reasoner",
"max_tokens": 1024,
"temperature": 0.7,
"read_thought_enabled": true
}
}
}

或者

docker-compose.yml
 DEEPSEEK_API_BASE: "https://api.deepseek.com"
DEEPSEEK_MODEL: "deepseek-reasoner"
DEEPSEEK_MAX_TOKENS: 1024
DEEPSEEK_TEMPERATURE: 1.0
DEEPSEEK_READ_THOUGHT_ENABLED: "true"