Model settings
temperature / top_p / max length / stop sequences 等参数
🛠️ 互动实验:请使用页面上方的 "参数实验室" 直观感受温度变化对生成结果的影响。
Prompt 是你给 AI 的“指令”,而参数则是 AI 的“性格设置”。在生产环境中,微调这些参数往往比重写 Prompt 更能解决“输出不稳定”的问题。
1. 创造力引擎:Temperature vs. Top_p
理解这两个参数的关键在于:AI 并不理解词义,它只是在做概率预测。
Temperature (采样温度)
底层原理:在最后选择单词时,模型会对词库中所有词的概率分布进行“缩放”。
- 低温度 (T -> 0):“概率放大器”。高概率的词会变得极高,低概率的词几乎归零。模型变得极其保守,总是选那个最稳妥的词。
- 高温度 (T -> 1.5+):“概率平权”。原本概率较低的词也有了出头之日。模型变得“敢于尝试”,输出更具意外感。
实战秘籍:
- 追求准确性(如写代码、提取 JSON):请死守
0.0。 - 追求多样性(如写小说、取名字):尝试
1.2甚至更高。
Top_p (核采样 / Nucleus Sampling)
底层原理:按概率排序,只在累积概率超过 P 的“核心词池”里选。
- 作用:它像一个**“噪音过滤器”**。
- 场景:如果你设置
Top_p = 0.1,意味着 AI 哪怕在“创意模式”下,也绝不会去选那些概率排在末尾 90% 的废词。
💡 调参军规:
- 不要同时大幅调整两者。
- 优先动 Temperature。如果发现 AI 开始说胡话(语法错误),降低 Top_p 来过滤长尾噪音。
2. 存在感与多样性:惩罚项 (Penalty)
如果 AI 陷入“死循环”或总是用同样的词,你需要这对手术刀:
- Presence Penalty (存在惩罚):“话题开辟者”。只要一个词出现过,就惩罚它。这会逼迫 AI 谈论新内容,增加文本的“广度”。
- Frequency Penalty (频率惩罚):“词汇丰富度”。一个词出现次数越多,惩罚越重。这会逼迫 AI 换个近义词,增加文本的“质感”。
3. 长度与边界 (Constraints)
Context Window (上下文窗口) - 2026 核心概念
在 2026 年,虽然主流模型(如 Gemini 3, GPT-5)已支持百万级甚至无限上下文,但你仍需注意:
- Lost in the Middle:模型对长文本“中间部分”的记忆力通常最差。
- 成本控制:上下文越长,推理成本(和延迟)呈指数级或线性增长。
- Max Output Tokens:这只限制回复的长度,不影响模型能“看”多少。
Stop Sequences (停止序列)
这不仅是防止 AI “废话”,更是逻辑控制。
- 技巧:在 Few-shot(少样本学习)中,设置
\n为停止词,可以强制 AI 每次只生成一行,用于批量生成数据。
🧠 调参思维模型:仪表盘法则
我们将任务分为三个“象限”,请对号入座:
象限 A:逻辑硬核型 (Code, Logic, Math)
- 配置:Temp:
0.0, Top_p:1.0, Penalty:0.0 - 心态:你是严厉的导师,要求 1+1 必须等于 2,不允许任何随机性。
象限 B:文案创作型 (Email, Summary, Translation)
- 配置:Temp:
0.7, Top_p:0.9, Penalty:0.1 - 心态:你是总编,要求行文流畅,既要有专业度,也要有语言的变化,不显得呆板。
象限 C:灵感爆发型 (Brainstorming, Fiction)
- 配置:Temp:
1.3, Top_p:1.0, Penalty:0.5 - 心态:你是甲方,你对 AI 说“给我点我没见过的东西”,哪怕它偶尔出错也可以接受。
🛠️ 进阶:如何科学地调参?
- 控制变量:保持 Prompt 不变,只改参数。
- Seed 固化:在测试阶段使用固定的
Seed(种子值),确保观察到的改进是参数带来的,而不是随机运气。 - 多路并行:在
Temperature = 1.0时,使用n > 1(一次生成多条结果),从中筛选最佳路径。
下章预告:掌握了“性格设置”,我们将进入真正的战场——👉 核心技巧 (Techniques),学习如何通过 Prompt 结构直接改变 AI 的思考方式。