返回顶部
热门问答 更多热门问答
技术文章 更多技术文章

LangChain团队最新技术报告:Is RAG Really Dead ?

[复制链接]
链载Ai 显示全部楼层 发表于 2025-12-2 09:31:23 |阅读模式 打印 上一主题 下一主题

随着大模型上下文窗口扩大到100K-200K Token(开源)或者200万-1000万字(商业),不少人开始质疑检索增强生成(RAG)是否已经过时?

企业机构模型名称上下文长度开/闭源是否中文
360360Zhinao-7B-Chat-360K360K开源
猎户星空Orion-14B-LongChat200K-320K开源
元象XVERSXVERSE-Long-256K256K开源
上海AI LabInternLM2-Chat-7B/20B200K开源
零一万物Yi-6B-200K200K开源
百川智能Baichuan2-192K192K开源
NousResearchYarn-Mistral-7b-128k128K开源
AnimaAnima-7B-100K100K开源否,中文需要申请
AnthropicClaude 2.1200K闭源
智谱AIGLM4128K闭源
OpenAIChatGPT-Turbo128K闭源
月之暗面Kimi Chat20万字闭源
月之暗面Kimi Chat Longer200万字闭源
通义千问qwen1000万字开/闭源

LangChain团队(Lance Martin 软件工程师)结合几个最新研究项目成果来探讨、分析这个问题。通过多针“大海捞针”方法,深入分析了长上下文大模型在事实推理和检索(reasoning & retrieval in long context LLMs)方面的局限性,接着分析了长上下文给RAG带来的新变化,如以文档为中心的索引技术(RAPTOR+Long embeddings)和RAG的流程变化(Self-RAG、CRAG)。

多针“大海捞针”:https://blog.langchain.dev/multi-needle-in-a-haystackChallengemayberecencybiasinLLMs:https://arxiv.org/pdf/2310.01427.pdfRAGfromscratch:https://github.com/langchain-ai/rag-from-scratchRAG新突破RAPTOR:https://github.com/parthsarthi03/raptorDenseXRetrieval:https://arxiv.org/pdf/2312.06648.pdfTogetherEmbeddings:https://www.together.ai/blog/embeddings-endpoint-releaseSelf-RAG:https://arxiv.org/abs/2310.11511CRAG:CorrectiveRetrievalAugmentedGenerationhttps://arxiv.org/abs/2401.15884




回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

链载AI是专业的生成式人工智能教程平台。提供Stable Diffusion、Midjourney AI绘画教程,Suno AI音乐生成指南,以及Runway、Pika等AI视频制作与动画生成实战案例。从提示词编写到参数调整,手把手助您从入门到精通。
  • 官方手机版

  • 微信公众号

  • 商务合作

  • Powered by Discuz! X3.5 | Copyright © 2025-2025. | 链载Ai
  • 桂ICP备2024021734号 | 营业执照 | |广西笔趣文化传媒有限公司|| QQ