返回顶部
热门问答 更多热门问答
技术文章 更多技术文章

LLocalSearch:使用LLM Agent完全本地运行的元搜索引擎

[复制链接]
链载Ai 显示全部楼层 发表于 2025-12-2 09:30:07 |阅读模式 打印 上一主题 下一主题

项目简介

这是一个使用LLM代理的完全本地运行的元搜索引擎。用户可以提出一个问题,系统将使用一连串来LLMs找到答案。用户可以看到代理的进度和最终答案。不需要 OpenAI 或 Google API 密钥。


现在有后续问题:

地位

这是一个概念证明,代码很可怕。我还不打算公开这个,但我想与一些人分享。如果您有任何建议,请打开问题和 PR。

特征

  • 完全本地(无需 API 密钥)

  • 在“低端”LLM硬件上运行(演示视频使用 7b 模型)

  • 用户可以看到代理的进度,并了解答案是如何找到的


路线图

  • 将“代理更新”/调试信息与最终结果分开(类似于 langsmith 界面?

  • 实现有状态代理链(以便用户可以提出后续问题)

  • 代码重构,为未来的开发和协作提供更坚实的基础


运作方式

请阅读下文以获得最新的想法。


自托管/开发

目前,这两个选项是相同的。我计划将其打包到单个 docker 映像中,以便于部署。

要求

  • 网络中某处正在运行的 Ollama 服务器

    • LLocalSearch 使用hermes-2-pro-mistral模型进行测试,默认情况下会拉取此模型

    • docker-compose.dev.yaml文件中OLLAMA_HOST的环境变量设置为 Ollama 服务器的 IP

    • docker-compose.dev.yaml将文件中的环境OLLAMA_MODEL_NAME变量设置为要使用的模型名称

  • Docker Compose

  • Make(可选)


撰写文件中包含的有

  • 搜索后端(基于Go Langchain库)

  • 搜索前端(Svelte & Tailwind)

  • Chroma DB(用于将搜索结果存储在矢量空间中)

  • SearXNG(代理链使用的元搜索引擎)

  • Redis(用于缓存搜索结果)

gitclonehttps://github.com/nilsherzig/LLocalsearch.git#makesuretochecktheenvvarsinsidethecomposefile#buildthecontainersandstarttheservicesmakedev#makedevwillstartthefrontendonport3000.Bothfrontandbackendwillhotreloadoncodechanges.#oruse"makerun"todetachthecontainers(anduse"makestop"tostopthem)#running"makeupgrade"willstopallcontainers,pullthelatestcodeandrestartthecontainers

如果您尚未 make 安装,则可以在 Makefile 中手动运行这些命令。

现在,您应该能够访问 http://localhost:3000 上的前端。所有其他服务均不向外界公开。



回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

链载AI是专业的生成式人工智能教程平台。提供Stable Diffusion、Midjourney AI绘画教程,Suno AI音乐生成指南,以及Runway、Pika等AI视频制作与动画生成实战案例。从提示词编写到参数调整,手把手助您从入门到精通。
  • 官方手机版

  • 微信公众号

  • 商务合作

  • Powered by Discuz! X3.5 | Copyright © 2025-2025. | 链载Ai
  • 桂ICP备2024021734号 | 营业执照 | |广西笔趣文化传媒有限公司|| QQ