链载Ai

标题: 轻松套取别人的AI提示词,AI咋这么傻呢。 [打印本页]

作者: 链载Ai    时间: 昨天 11:08
标题: 轻松套取别人的AI提示词,AI咋这么傻呢。

2024年AI下半场,朋友圈里各种AI工具刷屏,什么ChatGPT、GLM、文心一言、Kimi、腾讯元宝,感觉每个人都在聊这些。

感觉只要开始聊AI了,就不会与AI时代脱轨了。

当然米汤我自身也是个AI迷,所以也跟风去玩了这些AI工具。

越玩感觉越有意思,顺便还让AI给搞到不少银两。

不过今天米汤就不跟大家讨论这些个AI工具有多厉害,因为AI有时候也挺“二B”的,尤其是被"狡猾的"人类"套路"的时候。

AI工具看似无所不能,它可以搞AI音乐、AI视频、AI办公、AI绘画、AI写作......

但实际上,AI也经常被“忽悠瘸“。

米汤这就先来带大家来扒一扒AI提示词是怎么被“套取”的。



AI提示词安全

先说下什么是AI提示词安全。

这个词儿听着有点专业吧,但其实很容易理解。

通俗点讲,AI提示词就是你跟AI聊天时输入的那些话,而提示词安全就是确保你输入的话不会让AI做出一些出格的事情。

最直观的例子就是:防止别人通过一些巧妙的话术忽悠AI,让它说出一些不该说的话。

这种事看起来和我们这些普通玩AI的人没啥关系,但我们需要去换位思考。如果你辛辛苦苦做出来的AI智能体,结果因为没注意提示词安全,被人用几个问题就绕过了防线,把你多日甚至几个月以来的累积的心血全泄露了,换谁不难受?

这样的结果谁都不想看到吧?

还有,你辛苦建立的知识库、收集的数据,一旦被不法分子利用,后果简直不堪设想。

所以米汤认为,了解和掌握提示词安全,能保护你的劳动成果,还能让你在AI圈里多一层神秘感、自豪感。

毕竟,多懂点儿总是好的。


AI被套路

AI被套路的例子还真不少。

先举个“循序渐进”的例子。

就像钓鱼一样,用户一开始问一些看似无害的问题,让AI逐步放松警惕,然后一步步加深问题。

最终让AI说出它本来不该说的东西。

如果大家还没听懂的话,我就再具体点说。

一个用户一开始问:“AI,你今天过得怎么样?”

接着一步一步过渡到更私密、更敏感的话题,最终让AI暴露了内部信息。

这就是个典型的逐步引导的套路。

还有一种比较有趣的套路叫“情感攻击”。

用户会通过编造感人故事,让AI进入一种"情感共鸣"状态

比如说假装自己是 AI 的老朋友,讲述一些悲伤的往事,结果AI "被感动",做出了曾被设置不允许做的反应

这种策略和我们生活中见到的各种诈骗手法非常类似,就像老人们被"温情服务"套路骗买保健品的套路。

米汤我觉得这些行为对比起来简直一模一样。

有时候真挺佩服这些骗子的“演技”,不去写小说真是可惜了。

与此同时, AI也暴露出了"软肋”。


如何应对

我们需要一些防护措施。







欢迎光临 链载Ai (https://www.lianzai.com/) Powered by Discuz! X3.5