ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;letter-spacing: 0.544px;visibility: visible;">一、PromptingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: 16px;letter-spacing: 0.578px;text-align: center;visibility: visible;">(提示词)ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: 16px;letter-spacing: 0.578px;text-align: center;visibility: visible;">
Prompt的核心要素包括:明确的任务指示、相关上下文、示例参考、用户输入以及具体的输出要求。
指示(Instructions):想要模型执行的特定任务或指令。
上下文(Context):包含外部信息或额外的上下文信息,引导语言模型更好地响应。
例子(Examples):通过给出具体示例来展示期望的输出格式或风格。
输入(Input):用户输入的内容或问题。
输出(Output):指定输出的类型或格式。
Prompt:指令:请撰写一段关于“未来科技”的描述。输入数据:无特定输入数据,直接基于主题创作。输出指示:生成一段约100字的文本,要求内容富有想象力且积极向上。开始你的创作:
二、In-context Learning(上下文学习)
Zero-shot Learning:不给GPT任何样例,仅通过自然语言指令来指导模型完成任务。
假设你有一个任务,需要将文本分类为三种情感之一:正面,负面或中性。文本:我认为这次假期还可以。情感倾向标签(选择一个):正面、负面、中性
One-shot Learning:给GPT一个任务示例,模型根据这个示例来理解任务并生成输出。
Few-shot Learning:给GPT多个任务示例,模型通过这些示例来更好地理解任务并生成输出。
假设你有一个任务,需要将文本分类为三种情感之一:正面,负面或中性。示例1:文本:“我度过了一个非常愉快的周末!”情感倾向标签:正面示例2:文本:“这部电影太令人失望了。”情感倾向标签:负面示例3:文本:“今天的天气和昨天一样。”情感倾向标签:中性现在,请根据你从上述示例中学到的知识,对以下文本进行情感分类:文本:“我认为这次假期还可以。”情感倾向标签(选择一个):正面、负面、中性
三、Chain-of-Thought(思维链)
Chain-of-Thought
Zero-Shot CoT:在没有示例的情况下,仅仅在指令中添加一行经典的“Let’s think step by step”,就可以激发大模型的推理能力,生成一个回答问题的思维链。
Few-Shot CoT:通过提供几个包含问题、推理过程与答案的示例,让模型学会如何逐步分解问题并进行推理。这种方式需要少量的示例来引导模型,但通常能够获得更好的效果。
Few-Shot CoT
| 欢迎光临 链载Ai (https://www.lianzai.com/) | Powered by Discuz! X3.5 |