知是行之始,行是知之成。 ——王阳明
提示词是一段文字指令,用来引导大模型(如ChatGPT)理解需求。
提示词工程是通过设计、优化输入指令(Prompt),引导大语言模型(LLM)生成更符合预期输出的技术。其核心在于:
在自然语言处理(NLP)中,token 是模型处理文本的最小单位。
T", " is", " powerful", "!"](具体分词方式取决于模型的分词器)。上下文窗口:
模型能处理的 Token 总数限制(如 4096 Tokens),超出部分会被截断。提示词越长,占用 Token 越多,留给输出的 Token 越少。
位置敏感:
模型对 Token 的位置编码敏感,关键指令应靠前放置(避免被截断)。
注意力权重:
自注意力机制中,不同 Token 的权重不同。示例:在提示词中重复关键 Token(如“代码、Python、高效”)可强化模型关注点。
大模型是指参数量巨大(通常达到数十亿甚至数千亿)的语言模型,它们基于深度学习技术(尤其是Transformer架构),能够理解和生成人类语言。
典型代表:OpenAI的GPT系列(如GPT-3、GPT-4)、Google的PaLM、Meta的LLaMA、Anthropic的Claude等。
例如,GPT-3有1750亿参数,更大的参数量意味着模型能够存储更多的知识
例如,GPT-4的上下文窗口扩展到32K Token。 长上下文窗口使模型能够更好地理解复杂的任务和长文档
文本清洗:去除乱码/敏感词
分词:将句子拆解为token(如"深度学"+"习"):向量化:每个token转为n维数学向量;位置编码:标记词语顺序
注意力机制: 1、找出关键词(类似人类阅读时高亮重点) 2、知识检索:激活相关记忆区块(如问「量子计算」则加载物理知识树) 3、逻辑推理:执行if-then判断(如检测到"对比"指令则启动比较模块)
文本解码:将数学向量转回文字
格式美化:自动添加Markdown
交互设计:添加操作按钮(如"精炼答案"/"展开案例")
很强的提示词文档:https://www.promptingguide.ai/zh/techniques/cot
每次输入都是独立事件
连续对话时自动保留上下文(最长约4000字)
通过「记忆库+向量检索」实现(需开发接口)
后期会出相关提示词与大模型工程的开发,敬请期待。
| 欢迎光临 链载Ai (https://www.lianzai.com/) | Powered by Discuz! X3.5 |