返回顶部
热门问答 更多热门问答
技术文章 更多技术文章

LLocalSearch:完全本地化的搜索Agent助手,自动整理全网搜索结果,已开源可立即体验!

[复制链接]
链载Ai 显示全部楼层 发表于 6 小时前 |阅读模式 打印 上一主题 下一主题

项目简介

LLocalSearch是一个完全本地化运行的搜索聚合器,采用LLM(大型语言模型)Agent进行工作。用户可以提出问题,系统将通过一系列LLM找到答案,并且用户能够看到Agent的进展和最终答案。


该项目的特点是不需要OpenAI或Google的API密钥,保证了搜索过程的隐私性和安全性。此外,LLocalSearch支持跟进问题,具备完全本地化操作的特性,无需通过外部API进行数据处理,为用户提供了一个既方便又安全的本地搜索服务




Demo



特点

·?️ 完全本地化(无需API密钥)

·? 可在“低端”大型语言模型硬件上运行(演示视频使用了一个7b模型)

·? 进度日志,让搜索过程的理解更加深入

·? 提出后续问题

·? 移动友好界面

·? 通过Docker Compose快速且易于部署

·? 网络界面,允许从任何设备轻松访问

·? 手工制作的UI,具有明暗模式


自托管与开发

1.需求

·一个运行中的Ollama服务器,容器能够访问到GPU不是必需的,但推荐使用


·确保Ollama不仅仅在localhost上监听,而是在所有接口上监听(或至少是docker网络上)。如果你在docker内使用ollama,那么你不需要更改任何设置。


·Docker Compose


2.运行最新发布版

如果你不打算在这个项目上进行开发,这是推荐的代码

gitclonehttps://github.com/nilsherzig/LLocalSearch.gitcd./LLocalSearch#?checktheenvvarsinsidethecomposefile(and`env-example`file)andchangethemifneededdocker-composeup

? 你现在应该能够在 http://localhost:3000 上打开网络界面。默认情况下,没有其他内容被暴露。


3.运行当前的git版本

具有更新的特性,但可能稳定性较差。

git clone https://github.com/nilsherzig/LLocalsearch.git# 1. make sure to check the env vars inside the `docker-compose.dev.yaml`.# 2. Make sure you've really checked the dev compose file not the normal one.
# 3. build the containers and start the servicesmake dev # Both front and backend will hot reload on code changes.

如果你没有安装make,你可以手动运行Makefile内的命令。

现在,你应该能够在 http://localhost:3000 访问前端界面。






回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

链载AI是专业的生成式人工智能教程平台。提供Stable Diffusion、Midjourney AI绘画教程,Suno AI音乐生成指南,以及Runway、Pika等AI视频制作与动画生成实战案例。从提示词编写到参数调整,手把手助您从入门到精通。
  • 官方手机版

  • 微信公众号

  • 商务合作

  • Powered by Discuz! X3.5 | Copyright © 2025-2025. | 链载Ai
  • 桂ICP备2024021734号 | 营业执照 | |广西笔趣文化传媒有限公司|| QQ