返回顶部
热门问答 更多热门问答
技术文章 更多技术文章

2种方式1键部署,免费开源版OpenManus,28.7K Stars完全平替Manus

[复制链接]
链载Ai 显示全部楼层 发表于 前天 17:29 |阅读模式 打印 上一主题 下一主题


前言

前几天一个邀请码被炒上天的Manus热度依然未减,小智也和大家一样加入了申请大军的行列,无奈一直无果。索性就研究一下github上的开源版OpenManus28.7K真是火的一塌糊涂


至于能否平替Manus?咱们不妨来一起看看这款开源工具的效果。

上一篇文章小智给大家分享过这款工具,文章链接火爆全网一码难求的Manus AI,免费替代方案今天详细给大家介绍一下操作步骤,这款工具最大的优势是可以对接咱们本地的Ollama开源大模型!因为是本地部署,所以不需要API Key,完全免费。可以直接白嫖。

  • OpenManus:【https://github.com/mannaandpoem/OpenManus】

操作步骤

Github上提供有两种快速部署方式

方法 1:使用 conda ( 适合 Windows 用户)

1、创建一个新的 conda 环境:

conda create -n open_manus python=3.12
conda activate open_manus

2、克隆存储库:

gitclonehttps://github.com/mannaandpoem/OpenManus.git
cdOpenManus

3、安装依赖项:

pip install -r requirements.txt

4、安装Ollama 本地部署AI大模型

省略安装Ollama部署,看小智之前的文章有详细操作部署。

方法 2:使用 uv(推荐)

1、安装 uv(快速 Python 包安装程序和解析器):

curl -LsSf https://astral.sh/uv/install.sh | sh

如果命令执行不成功,复制一下终端代理命令

exporthttps_proxy=http://127.0.0.1:7890 http_proxy=http://127.0.0.1:7890 all_proxy=socks5://127.0.0.1:7890

2、克隆存储库:

gitclonehttps://github.com/mannaandpoem/OpenManus.git
cdOpenManus

如果出现无法连接github服务的问题和上面解决方法一样,执行一下终端代理命令

3、创建一个新的虚拟环境并激活它:

uv venv
source.venv/bin/activate # On Unix/macOS
# Or on Windows:
# .venv\Scripts\activate

如果出现这个报错:

uv
zsh:commandnot found: uv

执行以下命令,将其添加到你的 PATH 环境变量中

source$HOME/.local/bin/env

验证一下uv是否可用

uv --version

4、安装依赖项:

uv pip install -r requirements.txt

5、安装本地大模型

由于本地对接的AI模型,必须使用有函数调用的模型才可以, 比如 qwen2.5-coder:14b、qwen2.5-coder:14b-instruct-q5_K_S、qwen2.5-coder:32b 都可以,视觉模型可以使用 minicpm-v

本地模型安装指令

ollama run qwen2.5-coder:14b

视觉模型安装指令

ollama run minicpm-v

6、修改配置文件

在安装目录下,找到OpenManus\config\config.example.toml,把config.example.toml 改成 config.toml

然后将里面的内容改成如下:

# Global LLM configuration
[llm]
model ="qwen2.5-coder:14b"
base_url ="http://localhost:11434/v1"
api_key ="sk-..."
max_tokens = 4096
temperature = 0.0

# [llm] #AZURE OPENAI:
# api_type= 'azure'
# model = "YOUR_MODEL_NAME" #"gpt-4o-mini"
# base_url = "{YOUR_AZURE_ENDPOINT.rstrip('/')}/openai/deployments/{AZURE_DEPOLYMENT_ID}"
# api_key = "AZURE API KEY"
# max_tokens = 8096
# temperature = 0.0
# api_version="AZURE API VERSION" #"2024-08-01-preview"

# Optional configuration for specific LLM models
[llm.vision]
model ="qwen2.5-coder:14b"
base_url ="http://localhost:11434/v1"
api_key ="sk-..."

7、运行文件

python3 main.py

看下运行起来的效果


因为要打开网页会自动安装playwright

8、结尾

以上就是要和大家分享的2种部署方式,使用开源版OpenManus调用本地Ollama模型的操作步骤以及过程中遇到的问题。希望对你有所帮助。


回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

链载AI是专业的生成式人工智能教程平台。提供Stable Diffusion、Midjourney AI绘画教程,Suno AI音乐生成指南,以及Runway、Pika等AI视频制作与动画生成实战案例。从提示词编写到参数调整,手把手助您从入门到精通。
  • 官方手机版

  • 微信公众号

  • 商务合作

  • Powered by Discuz! X3.5 | Copyright © 2025-2025. | 链载Ai
  • 桂ICP备2024021734号 | 营业执照 | |广西笔趣文化传媒有限公司|| QQ