链载Ai

标题: 关于提示词的认知更新—2025 [打印本页]

作者: 链载Ai    时间: 4 小时前
标题: 关于提示词的认知更新—2025


提示词不需要了?

Deepseek R1发布之后我们看到很多文章都在提出所谓的“提示词不存在了”,我们跟大模型的交互被进一步的降低了门槛,从Deepseek app和下载和日活的一路飙升的结果确实也间接验证了,特别是DS在中文写作上的能力更加加速了这个出圈的效应,可以想想如果只有数学和编程上的领先肯定到不了这种程度,claude就是典型的例子,同时这也是一个产品通过模型能力实现跨越式增长的典范了,只要证明了产品和模型的飞轮有一部分还是生效的,模型能力上能有多出0.5左右的体验(当然也必须是大众能直接感知到的场景)升级,可能就已经可以弥补产品、市场营销上的各种不足了。

同时这里也有一个很有意思的点,Deepseek其实发的这个模型核心是在侧重推理能力,但是开出了中文创作上的花,可能也间接说明了通往AGI的道理上不需要太在意我们需要去适配哪些场景,只需要把智能程度拉满就可以了,反观有些号称针对XXX场景做的专属模型可能效果并没有那么好,以及这次通过Deepseek对小模型进行蒸馏的效果,更加说明了一个通用的足够智能的大模型的重要性

但是这些具体现象和结果的背后,我们需要进一步的去看看提示词这个事情到底发生了什么变化,是降低了门槛不假,但是是完全不需要了吗?或者更加广义一点,我们和模型的交互重点到底应该是什么?比较之前的文章中也有提到,提示词是我们与模型的唯一交互的方式,这个形式是值得我们持续关注和思考的

提示词的发展

提示词的发展可以说是跟大模型的发展相辅相成的,模型持续迭代进化的同时我们也可以看到提示词的持续地变化,透过这个变化可能可以更好的帮助我们找到这个事情的本质

时间具体模型提示词的变化和表现
2022年底
chatGPT刚发布的时候
刚发布的时候,大家发现直接通过自然语言就可以与AI对话,特别是相较于以前的chatbot,不仅能理解我们的需求,还可以结合上下文来理解和对话,提示词基本就是自然语言,直接提出需求
2023年~2024年初
各种大模型产品持续发布
各种提示词的框架层出不穷,或者我们叫公式也行。大家发现通过一些固定的格式可以获得模型更好的效果。也是这个阶段大家提出了提示词的门槛,甚至提示词是可以进行交易的
2024年年中
Claude 3.5
基于xml或者编程语言来编写提示词的方式开始盛行,这个阶段大家发现大模型对于编程语言的理解更加精准,所以相关的提示词的效果也被广泛传播。这个阶段的提示词可以让大众感觉提示词的门槛越来越高了
2025年初
DeepSeek R1
R1的发布直接并且无限量的使用,特别是把思考过程都放出来大家突然发现好像也不需要写那么复杂的提示词就可以获得一个好的回答,提示词的需求好像又回到了原点

提示词的核心

我们回顾提示词的发展过程,找到每个不同的阶段的好的提示词来分析一下,会发现其实好的提示词的本质是一直没有变化的,不管是结构化的提提示词还是R1简化的提示词

?提示词的核心 = 认知(思考方式,how)+信息(上下文,What)




稍微发散一些思考:

我们知道有些只可意会,不可言传的知识和经验一直是靠所谓的师徒制度来传承的,这部分的认知应该怎么传承呢?这些可能就是之前大家提到的一些总结不了的行业know how

一个小小的暴论,跟AI无关,其实这些知识和经验的价值可能不在所谓的know how,说的直白一点就是可能how其实很简单,但是难的部分是告诉你了你也做不到。

难的是执行,是融会贯通,是形成潜意识和思考。怎么做可能并不是什么秘密,怎么知行合一地做到才是关键,比如大家喜欢问的“怎么赚100W?(这个问题感觉可以荣登人类与模型提问最多的问题)”,其实这个答案可能并不在AI那里,或者其实你在哪都可以找到所谓的答案,答案一直都在,只是你一直都在视而不见,你一直在看、在思考、在想,但是永远没有实际的动作。生活可能也是如此,一切都在我们眼前,只是我们习惯了视而不见而已



推理+执行

Deepclaude:这个开源项目火起来了,其实就是充分的发挥了当前效果最好的推理模型和指令跟随模型来实现1+1大于2的效果

幻觉问题

最后聊一下幻觉问题,这可能也是大众对于出圈的大模型最容易出现的误区了,特别是有些新的模型发布之后被各种专业人士推荐的时候,大众用户用了之后发现有幻觉问题,就觉得其实没什么大不了的,或者一直在计较一下幻觉带来的问题觉得模型是不可用的


R1只是起点

虽然上一篇文章中已经强调了R1重要的不是模型本身,虽然模型已经带着产品非常出圈了,核心是新的思路和方向,同时开源的方式也会加速这个新方向的高速发展,所以我们对于AGI的未来确实也会越来越乐观

以及一些专业人员的视角下,可能R1-Zero的意义更大,包括当前大模型做的很多为了人类自然语言的理解做的对齐微调,可能都是在某个维度限制模型的智能程度,是在“迁就”人类的理解水平

按照NLP领域对语言的理解,人类的自然语言并不是最完美的推理语言。在R1-Zero的进一步进化过程中,或许可以构建出更适合推理的混合语言IR,建立更高效的推演体系。

同时对于这些能力可能已经远超人类的模型的持续优化,怎么更好地协作和使用,也带来了新的挑战

关于Deepseek的各种自媒体的文章和解读已经非常多了,但是还是非常推荐大家从本质出发,去看看那篇他们发布的技术文档,里面藏着非常多的细节,以及这篇文章,这篇百科性质的文章基本把技术文档用更加通俗的语言重新解读了一遍,也非常推荐。

文章中关于应用场景的一些解读也非常值得关注,比如已经提到的被大家发现非常亮眼的问答和写作,同时关于文档分析与上下文的理解感觉也是可以尝试的,有两个比较典型的场景

能局限我们的只能是我们自己了

最后回到我们的主题,在模型能力持续进化的同时,我们与AI的交互和协作上能最大的瓶颈可能只有我们自己了







欢迎光临 链载Ai (https://www.lianzai.com/) Powered by Discuz! X3.5