项目简介
LobeChat是一个开源的 ChatGPT/LLMs 聊天应用与开发框架。 LobeChat提供了优雅的用户界面设计、流畅的对话体验和便捷的部署方式。 还支持语音合成、多模态、可扩展的(function call)插件系统。 部署与使用完整部署教程可参考官方文档: https://chat-docs.lobehub.com/zh/self-hosting/start Vercel、Zeabur 或 Sealos 部署用户可以通过 Vercel、Zeabur 或 Sealos 进行一键部署。 仅需准备 OpenAI API Key,并在部署过程中将其填入环境变量 OPENAI_API_KEY。 Docker 部署项目也提供了 Docker 镜像,可以通过运行以下Docker 命令在私有设备上部署 LobeChat 服务: dockerrun-d-p3210:3210\ -eOPENAI_API_KEY=sk-xxxx\ -eACCESS_CODE=lobe66\ --namelobe-chat\ lobehub/lobe-chat
同样需要设置 OPENAI_API_KEY 环境变量。 注意:可根据需要配置 OPENAI_PROXY_URL(用于代理访问 OpenAI 服务)和 ACCESS_CODE(用于访问控制)。 dockerrun-d-p3210:3210\ -eOPENAI_API_KEY=sk-xxxx\ -eOPENAI_PROXY_URL=https://api-proxy.com/v1\ -eACCESS_CODE=lobe66\ --namelobe-chat\ lobehub/lobe-chat
性能与设计界面设计精致,支持亮暗色主题切换,移动设备适配良好,支持 PWA(渐进式网页应用),提供接近原生应用的用户体验。 对话过程流畅,支持 Markdown 渲染,包含代码高亮、LaTeX 公式、Mermaid 流程图等复杂内容的展示。 部署速度快,使用 Vercel 平台部署只需不到一分钟的时间,确保用户数据在本地浏览器存储,保护用户隐私安全。 支持自定义域名绑定,便于用户随时随地访问聊天机器人助手。
特色功能LobeChat 不仅限于 OpenAI 的模型,还支持多种模型服务商,如 AWS Bedrock、Google AI、ChatGLM、Moonshot AI 等,以及本地大语言模型(Ollama)的集成。 提供模型视觉识别功能,比如支持 OpenAI 的 gpt-4-vision,允许用户上传图片并基于图片内容进行智能对话。 支持 TTS & STT 语音会话,实现文字与语音间的转换,提供多种声音选项,提升用户体验。 支持文生图技术,通过 DALL-E 3、MidJourney 和 Pollinations 等工具,用户可通过对话生成图像内容。 强大的插件系统,允许开发者通过插件扩展 LobeChat 的功能,如实时信息获取、第三方服务集成等,丰富聊天机器人的应用场景。
助手市场与本地开发助手市场LobeChat 拥有一个活跃的助手市场,用户可以发现并使用他人开发的各种助手,同时也可以将自己的助手作品提交至平台,利用自动化国际化工作流程使其支持多种语言。 本地开发- 可以使用 GitHub Codespaces 进行在线开发
gitclonehttps://github.com/lobehub/lobe-chat.git cdlobe-chat pnpminstall pnpmrundev
|