logo
P
Prompt Master

Prompt 大师

掌握和 AI 对话的艺术

Zero-shot Prompting

不提供 examples 的 prompting 方式

如今,经过大量数据训练并调整指令的 LLM 能够执行零样本任务。我们在前一节中尝试了一些零样本示例。以下是我们使用的一个示例:

提示:

code
Classify the text as neutral, negative, or positive. Text: I think this vacation was okay. Sentiment:

输出:

code
neutral

请注意,在上面的提示中,我们没有向模型提供任何示例——这就是零样本能力的作用。

指令调整已被证明可以改善零样本学习Wei 等人(2022)。指令调整本质上是在通过指令描述的数据集上微调模型的概念。此外,RLHF(来自人类反馈的强化学习)已被采用以扩展指令调整,其中模型被调整以更好地适应人类偏好。这一最新发展推动了像 ChatGPT 这样的模型。我们将在接下来的章节中讨论所有这些方法和方法。

当零样本不起作用时,建议在提示中提供演示或示例,这就引出了少样本提示。在下一节中,我们将演示少样本提示。

1v1免费职业咨询