你在让 AI 对话帮你搜索内容时,可能正在获取下别人喂给你的“病毒”信息,或者把你的对话隐私直接暴露给别人。
最近看了一篇知危编辑部的文章和一篇 Ars Technica 的文章分别对应了这两个问题。我们一起分析下这两个问题的成因,并给你提供具体防护建议。
当你在 DeepSeek 的联网模式中提问:“想了解 AI 可以看哪些媒体?”。
DeepSeek 会联网搜索并把搜索到的内容汇总给你看。
知危本身财经商业方面的新媒体,并不是 AI 方向的,他们做了一个实验:在各大媒体平台,比如新浪、网易、搜狐、知乎等等发布了一篇盘点形式的文章《最新最全面的AI资讯媒体盘点:国内有哪些AI资讯媒体值得看?》,在里面塞进自己的名字。
过了一段时间,再去联网搜索,AI 就联网搜索到了这个文章,并把内容汇总到你。里面列出知危。
目前他们已经删除了相关的文章,已经搜索不到了。
DeepSeek 没有验证机制,它信任搜索引擎的结果,而搜索引擎信任任何能发文章的平台。这种信任链条的中间环节越多,信息失真风险越大。大家都越来越习惯于借助 AI 工具获取信息,但是也要有足够的辨别增加的能力。
信息质量问题是其一。你的对话内容也可能被泄漏。
最近,一位网站站长在 Google Search Console (GSC) 里看到了奇怪的搜索关键词:用户的情感倾诉、聊天记录、公司的内部报告等等。这些关键词的来源都是 ChatGPT。
这个是严重的个人隐私泄漏事件了。
经过排查,他们找到了最可能出现这个问题的路径。
到这一步,那些隐私信息都泄漏给站长了。
也就是说OpenAI 会将任何需要谷歌搜索的提示信息分享给谷歌和任何为其进行数据抓取的人,然后还会分享给搜索结果中出现的网站。
问题核心在于用户的被动地位:你无法预知 ChatGPT是否会触发搜索,也无法控制它向 Google 发送什么内容。
AI 搜索的本质是:它相信搜索引擎,搜索引擎相信能发文章的人,而你只能相信他们都没问题。这个链条里没有校验机制。这就需要你自己辨别辨别 AI 生成的结果。
跟 AI 对话前要手动脱敏,否则你也不知道你的聊天内容会被泄漏给别人,或者被拿去训练了。
| 欢迎光临 链载Ai (http://www.lianzai.com/) | Powered by Discuz! X3.5 |