r1-reasoning-rag:结合R1推理+递归式RAG,sing deepseek's r1 reasoning to agentically retrieve, discard, and synthesize information from a knowledge base in order to fully answer a complex question: https://github.com/deansaco/r1-reasoning-rag,就三个脚本,llm,prompts,agent,基于langchain,简单粗暴的demo。
FineFilter: A Fine-grained Noise Filtering Mechanism for Retrieval-Augmented Large Language Models,https://arxiv.org/pdf/2502.11811,具体的,这篇论文提出了FineFilter,一种细粒度的噪声过滤机制,通过句子级别的MinMax优化问题来识别和保留有效的答案线索。
RAG vs. GraphRAG: A Systematic Evaluation and Key Insights,https://arxiv.org/pdf/2502.11371,提出了系统评估RAG和GraphRAG的方法。RAG采用基于语义相似度的检索方法。首先将文本分割成块,使用OpenAI的text-embedding-ada-002模型进行索引。对于每个查询,检索Top-10相似度的文本块,并使用Llama-3.1-8B-Instruct和Llama-3.1-70B-Instruct模型生成响应。
其次,kimi发MoBA:https://github.com/MoonshotAI/MoBA,https://github.com/MoonshotAI/MoBA/blob/master/MoBA_Tech_Report.pdf,《MoBA: Mixture of Block Attention for Long-Context LLMs》,提出全新的注意力机制“Mixture of Block Attention”(MoBA),思路来源于MOE,MoBA把长长的上下文切成小块(Block),然后用一个“智能路由器”动态挑选出对当前查询最重要的几个块,只关注这些块的信息。两者都是做加速使用,方式不同,可以跟进下。
frames of mind,https://github.com/dhealy05/frames_of_mind,R1的思维过程转化为可视化图形的一个可视化项目。实现思路:将思想链保存为文本->使用 OpenAI API 将文本转换为嵌入->使用 t-SNE 按顺序绘制嵌入。然后再根据嵌入之间的相似度,来绘制跳跃程度。