链载Ai

标题: 写好AI提示词的关键:在于消除不确定性 [打印本页]

作者: 链载Ai    时间: 昨天 22:00
标题: 写好AI提示词的关键:在于消除不确定性

“‘香农:信息的本质在于消除不确定性’。信息论之父香农热衷于炒股,曾经有人问他投资股票中哪些信息是最有价值的,他的回答道:内幕信息。”



好的上下文context和提示词prompt,其核心目的就是高效地消除LLM在生成目标输出时面临的关键不确定性。信息量(消除不确定性的能力)而非单纯的长度,这才是衡量提示词有效性的关键标准。



01香农信息论的核心:信息消除不确定性

香农将信息定义为“消除不确定性的东西”。一条信息的有用程度,在于它能多大程度地缩小可能性空间,让你从“不知道”或“多种可能”的状态,变成“更确定”的状态。

应用到预测:你掌握的信息如果能有效消除关于未来事件的不确定性,自然就能提高预测的准确性。例如,知道“明天下雨概率是90%”比只知道“明天可能下雨”提供了更多信息,消除了更多不确定性,预测“明天带伞”就更准确。


02大语言模型(LLM)的本质:基于概率预测下一个Token

AI大语言模型的核心工作原理是:根据输入的上下文(Prompt),预测下一个最可能出现的词(Token)。这是一个巨大的不确定性消除过程。


应用到预测:你掌握的信息如果能有效消除关于未来事件的不确定性,自然就能提高预测的准确性。例如,知道“明天下雨概率是90%”比只知道“明天可能下雨”提供了更多信息,消除了更多不确定性,预测“明天带伞”就更准确。


初始状态(无Prompt):LLM面对一个近乎无限可能的文本空间,不确定性极高。


输入Prompt:Prompt的作用就是向LLM注入信息,逐步缩小它需要预测的可能性空间,消除关于“用户想要什么”和“如何正确回应”的关键不确定性。


目标:让LLM预测出的“下一个Token序列”(即最终回复)最大概率地符合用户的真实意图和期望。


03优秀提示词设计原则

1. 精准定位核心不确定性:首先要思考,LLM在生成我想要的回答时,最大的不确定性来源是什么?通常包括:


2. 信息 > 冗余:每一个添加到Prompt中的词,都应该致力于消除上述某一个(或多个)维度的关键不确定性。无关的、重复的、模糊的信息,不仅不能有效消除不确定性,反而可能引入噪声或干扰模型对核心任务的理解。


3. 结构化与清晰度:清晰的结构(如使用分隔符、标题、明确指令)能帮助LLM更高效地解析Prompt中的信息,更快定位消除不确定性的关键指令。混乱冗长的叙述会增加LLM解析的负担,降低消除不确定性的效率。


4. 提供关键示例(Few-Shot Learning): 当任务复杂或格式要求特殊时,在Prompt中提供1-3个清晰、正确的输入-输出示例,是消除“如何做”的不确定性的最强有力手段之一。示例直接展示了期望的输出模式。


5. 约束即消除:明确的约束(如“不超过100字”、“避免使用专业术语”、“以Markdown表格形式输出”)本身就是强大的不确定性消除工具,它们直接排除了大量不符合要求的可能性。


6. 重要提示词放首尾位置:多篇研究论文揭示,自注意力机制会更倾向关注输入序列开头和结尾的位置(形成U形注意力分布),而对中间 token 的关注明显减弱,这种现象被称为“上下文位置偏置(position bias)”或“lost‑in‑the‑middle”问题


不同大语言模型在上下文中对位置敏感性的对比表


04为什么“越多越长”往往不是最优解?


05 总结

设计优秀提示词的黄金法则,就是像香农信息论所启示的那样:聚焦于如何用最精炼、最清晰、最相关的信息,消除LLM在生成你期望输出时所面临的最关键的不确定性(任务目标、格式、背景、输入解读)。
可以基于以下的原则设计提示词:


因此,要“抱着消除不确定性的目的”来设计提示词,这是最高效的策略。

在Prompt Engineering中,信息的质量(消除不确定性的能力)远比数量重要。

一个精心设计、目标明确、简洁有力的短Prompt,往往能比一个冗长模糊的长Prompt产生更准确、更符合预期的结果。






欢迎光临 链载Ai (https://www.lianzai.com/) Powered by Discuz! X3.5