返回顶部
热门问答 更多热门问答
技术文章 更多技术文章

【AI助手】用长期记忆去掉AI爱总结的毛病

[复制链接]
链载Ai 显示全部楼层 发表于 2 小时前 |阅读模式 打印 上一主题 下一主题

在打造一系列知识助手的过程中,笔者反复在思考一个问题,大模型不能完全遵循人类的想法,到底有什么办法可以解决?当然,这里指的是合规合法的内容。比如我想让它列出故事的内容,它不能精准地做到,这就造成一种苦恼和矛盾,实际上它有能力做到,但是它不做,或者说控制不止自己。再比如,它列出故事之后都会习惯性地加上自己的讲解或总结,这个也是笔者不想要的,实际场景也很好理解,比如看完一部电影,就不想要听别人的评论,希望可以自己消化总结,当然听别人的看法是有好处的,但不是这种硬塞过来的评论。从大模型的设计机制上来考虑,就会想是不是它就是被设计成这样子,它的底层结构和算法就会导致这种结果,是白璧之瑕吗?经过笔者的测试,大模型确实很顽固,但是,智能体却是可朔之才。怎么说,给大模型加上人设,然后开启它的长期记忆,我们就能把智能体训练得越来越聪明。

新建一个智能体,然后开启它的长期记忆:

接着给它设定人设:

就像人工智能专家给AI设定基本准则一个道理,我们也用一样的格式给它设定一些规则。这个规则设定是一个不断优化的过程,不同的大模型有不同的“脾性”,可以根据它的具体表现,增添不同的规则。

起初,大模型还是不能很好地遵守规则:

需要提醒它,它才能意识到错误:

经过多次提醒,它就能从长期记忆中学到东西了:

解决完大模型这个毛病后,进而延伸出来的问题就是,我们应该依赖这种提示词优化,还是等大模型的训练。大模型有针对性地训练肯定是更有效果的,就像奥特曼说过的,新模型(意指GPT-4o或GPT-5)会让许多创业公司的努力变得白费。但是,我们也不能小视用提示词进行微调的作用,事实证明智能体微调是有潜力的。同时,一旦我们察觉某个方面的优化是有价值的,我们也可以尝试让更多人意识到这方面的价值,反向推动大模型自身的优化。

OK,就到这。

回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

链载AI是专业的生成式人工智能教程平台。提供Stable Diffusion、Midjourney AI绘画教程,Suno AI音乐生成指南,以及Runway、Pika等AI视频制作与动画生成实战案例。从提示词编写到参数调整,手把手助您从入门到精通。
  • 官方手机版

  • 微信公众号

  • 商务合作

  • Powered by Discuz! X3.5 | Copyright © 2025-2025. | 链载Ai
  • 桂ICP备2024021734号 | 营业执照 | |广西笔趣文化传媒有限公司|| QQ