1.通义千问开源320亿参数模型 2.Al视频理解模型MiniGPT4-Video发布 3.信雅达大模型智能问答产品发布 4.长视频生成模型StreamingT2V发布 5.谷歌推出Gemma1.1版本多轮对话质量提高 6.马斯克的xAl公司洽谈30亿美元融资 7.Cohere推出RAG优化的大模型CommandR+
点关注 不迷路大模型提示词(Prompt)对于使用大型语言模型(LLM)具有至关重要的意义。这些提示词能够引导LLM生成与用户需求相符的回答,提高生成内容的相关性和准确性。通过精心设计提示词,用户可以更好地控制LLM的输出,使其满足特定场景和任务的需求。此外,提示词还能帮助LLM理解上下文信息,从而在对话中保持一致性并确保生成内容的连贯性。总之,正确使用大模型提示词对于充分发挥LLM的作用至关重要。
使用 OpenAI API 进行提示工程的最佳实践如何给 OpenAI 模型清晰有效的指导? 了解提示工程的原理由于OpenAI模型的训练方式,有一些特定的提示格式工作得特别好,并导致更有用的模型输出。 OpenAI的官方提示工程指南通常是提示技巧的最佳起点。 下面我们将介绍一些我们认为效果不错的提示格式,但请随意探索不同的格式,以更好地适应您的任务。 注意:"{文本输入}"是一个文本(上下文)占位符 1.使用最新版本LLM为了获得最佳效果,我们通常建议使用最新、功能最强的模型。较新的模型提示工程往往更容易。 2.将指令放在提示词的开头,并使用###或"""分隔指令和上下文较差❌: 把下面的文章总结为一个最重要的要点列表。 {文本输入}
较好✅: 把下面的文章总结为一个最重要的要点列表。 文本:""" {文本输入} """
3.尽可能具体、描述和详细地描述期望的背景、结果、长度、格式、风格等。具体说明背景、结果、长度、格式、风格等 较差❌: 写一首关于OpenAI的诗。
较好✅: 以{著名诗人}的风格,写一首关于OpenAI的鼓舞人心的短诗,专注于最近的DALL-E产品发布(DALL-E是一个文本到图像的ML模型)。
4.通过示例清晰地表达所需的输出格式较差❌: 提取下面文本中提到的实体。抽取以下4种实体类型:公司名称、人物名称、特定主题和主题。 文本:{Text}
显示,并告诉-当显示特定的格式要求时,模型的反应会更好。这也使得更容易通过编程可靠地解析出多个输出。 较好✅: 提取下面文本中提到的重要实体。首先提取所有公司名称,然后提取所有人的名称,然后提取适合内容的特定主题,最后提取总体主题
期望格式: 公司名称:<comma_separated_list_of_company_names> 人的名字:-||- 具体主题:-||- 总主题:-||-
文本:{Text}
5.从zero-shot开始,然后few-shot,无论是工作,然后调整✅Zero-shot 从下面的文本中提取关键词。 文本:{Text} 关键词:
✅Few-shot -提供几个例子 从下面相应的文本中提取关键词。 文本1:Stripe提供了一些api, web开发者可以使用这些api将支付处理集成到他们的网站和移动应用程序中。 关键词1:Stripe,支付处理,api,web开发人员,网站,移动应用程序 ## 文本2:OpenAI训练了非常擅长理解和生成文本的前沿语言模型。我们的API提供了对这些模型的访问,可以用来解决几乎任何涉及处理语言的任务。 关键词2:OpenAI、语言模型、文本处理、API。 ## 文本3:{Text} 关键词3:
✅微调:请参阅微调最佳实践[https://platform.openai.com/docs/guides/fine-tuning]。 6.减少"空洞的"和不精确的描述较差❌: 这个产品的描述应该相当短,几句话就够了,不要太多。
较好✅: 用3到5句话来描述这个产品。
7.不要只是说什么不要做,而是说什么要做较差❌: 下面是代理和客户之间的对话。不要询问用户名或密码。不要重复。
顾客:我不能登录我的账户。 代理:
较好✅: 下面是代理和客户之间的对话。代理将尝试诊断问题并提出解决方案,同时避免询问任何与PII相关的问题。而不是要求PII,例如用户名或密码,请用户参考帮助文章www.samplewebsite.com/help/faq
顾客:我不能登录我的账户。 代理:
8.特定的代码生成:使用"引导词"将模型推向特定的模式较差❌: 编写一个简单的python函数 #1.告诉我一个以英里为单位的数字 #2.把这个数字单位英里换算成公里
在下面的代码示例中,向模型添加"import"提示,它应该开始用Python编写。(同理,"SELECT"是SQL语句开头的一个很好的提示。)
较好✅: 编写一个简单的python函数 #1.告诉我一个以英里为单位的数字 #2.把这个数字单位英里换算成公里
import
另外:推理参数对模型结果的影响一般情况下,model和temperature是改变模型输出最常用的参数。 - 1.
model:更高性能的模型通常更昂贵,可能有更高的延迟。 - 2.
temperature:衡量模型输出不太可能的标记的频率。温度越高,输出就越随机(通常是创造性的)。然而,这并不等同于"真实"。对于大多数实际用例,如数据提取和真实的问答,temperature为0是最好的。 - 3.max_tokens(最大长度):不控制输出的长度,而是控制token生成的硬截止限制。理想情况下,你不会经常达到这个极限,因为你的模型会在它认为完成时停止,或者当它到达你定义的停止序列时停止。
- 4.stop(停止序列):一组字符(标记),生成时将导致文本生成停止。
其他参数说明请见API参考[https://platform.openai.com/docs/api-reference/chat%5C]。 |