返回顶部
热门问答 更多热门问答
技术文章 更多技术文章

Google 让 RAG 变得前所未有地简单:全新 File Search 工具震撼登场

[复制链接]
链载Ai 显示全部楼层 发表于 昨天 22:37 |阅读模式 打印 上一主题 下一主题

如果你曾尝试自己搭一套 RAG(Retrieval-Augmented Generation,检索增强生成),你大概懂那种痛:要管理 embeddings(向量嵌入)、vector databases(向量数据库)、把文本正确地 chunking(切分),还得确保一切能和你的模型顺畅协作、又不至于烧钱。

好吧,Google 直接把这摊麻烦全给你搞没了。

他们悄悄地在 Gemini API 里_推出了全新的File Search Tool,由它来替你处理 RAG 的所有繁琐工作_。你把文件丢进去,提出问题,它就把剩下的事都搞定。

图片来源 - Google

这玩意儿是什么?

本质上,File Search 让 Gemini 能“理解”你的数据。你可以上传 PDF、DOCX、纯文本、JSON,甚至代码文件。当你向 Gemini 提问时,它不会瞎猜——而是检索你上传的文件,定位相关部分,并据此作答。

就像把你的私人“脑库”直接接到 Gemini 上。无需单独的 vector database、无需 retrieval pipeline(检索管线),也没什么需要你运维的。

就是:文件进,答案出。


很便宜,真的很便宜

这点着实让我意外。你不为查询或存储付费;只在一个时刻付费——当你索引文件的时候。

gemini-embedding-001模型创建 embedding 的费用是每 100 万 tokens 收费 0.15 美元。和用 Pinecone 或 Weaviate 自己搭一整套管线相比,简直不值一提。

之后,你可以随便、无限次查询这些文件。


它到底怎么运作

File Search 会自动完成文件的 chunking、生成 embeddings、存储与检索,并把上下文注入到你的 Gemini 提示词中,从而把 RAG 简化到底。

这一切都在你已经在用的generateContentAPI 调用里完成。

当你发起查询时,它会在幕后用最新的 Gemini Embedding 模型执行一次vector search(向量搜索)。因此它理解的是“语义”,而不只是关键词。

更棒的是:Gemini 的回答会包含citations(引用)——明确标出来源的文件和具体位置。你可以点进去核实。再也不用猜模型是不是在幻觉了。


用例:Beam 的极速游戏生成

早期测试方之一Phaser Studio,把 File Search 用在他们的 AI 驱动游戏平台 Beam 上。

他们有一个包含 3000 多个文件的资料库——模板、代码片段、设计文档和其他内部数据。File Search 让他们可以在不到 2 秒内查询整库。过去要手工查同样的信息,得花上_好几个小时_。

他们的 CTO Richard Davey 如此总结:

“过去要用几天才能打样的点子,如今几分钟就能玩上手。”

相当疯狂。


一个简短的 Python 示例

上手不需要太多代码。看这个简单示例:

fromgoogleimportgenai
fromgoogle.genaiimporttypes
importtime

client = genai.Client()
store = client.file_search_stores.create()
upload_op = client.file_search_stores.upload_to_file_search_store(
file_search_store_name=store.name,
file='path/to/your/document.pdf'
)
whilenotupload_op.done:
time.sleep(5)
upload_op = client.operations.get(upload_op)
response = client.models.generate_content(
model='gemini-2.5-flash',
contents='Summarize the research on sustainable AI.',
config=types.GenerateContentConfig(
tools=[types.Tool(
file_search=types.FileSearch(
file_search_store_names=[store.name]
)
)]
)
)
print(response.text)
grounding = response.candidates[0].grounding_metadata
sources = {c.retrieved_context.titleforcingrounding.grounding_chunks}
print('Sources:', *sources)

就是这样。上传文件、提出问题、拿到带来源的答案。搞定。


为何重要

每个 AI 开发者都会遇到同一个问题——模型听起来很强,但碰不到你公司的内部数据。

File Search 改变这一点,让 Gemini 能在无需复杂 retrieval setup(检索搭建)的前提下分析_你的_内容。

如果你在做需要时效性或垂直领域知识的东西——客服机器人、内部工具、文档问答——这就是游戏规则改变者。


自己试试

你现在就能在Google AI Studio里体验 File Search。有一个名为“Ask the Manual”的 demo——上传几份文件,提几个问题,看看答案的溯源效果有多好。

上手之后,你可以改造这个 demo,或者直接把它集成到你的应用里。


回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

链载AI是专业的生成式人工智能教程平台。提供Stable Diffusion、Midjourney AI绘画教程,Suno AI音乐生成指南,以及Runway、Pika等AI视频制作与动画生成实战案例。从提示词编写到参数调整,手把手助您从入门到精通。
  • 官方手机版

  • 微信公众号

  • 商务合作

  • Powered by Discuz! X3.5 | Copyright © 2025-2025. | 链载Ai
  • 桂ICP备2024021734号 | 营业执照 | |广西笔趣文化传媒有限公司|| QQ