我看很多人对于本地ollama来跑openmanus还经常踩坑,这里我做个简单的视频,加上本文图文版本来理清一些东西。安装conda环境部分,请大家根据官网readme操作,不要不看文档然后一顿操作下来搞砸了。官方中文Readme:https://github.com/mannaandpoem/OpenManus/blob/main/README_zh.md安装完conda环境之后,我们需要拉ollama的模型,这里我的电脑因为之前设置的原因,我需要配置ollama并行处理和多模型启动,我的命令是:setOLLAMA_NUM_PARALLEL=setOLLAMA_MAX_LOADED_MODELS= 然后就可以拉模型了,语言模型我选的是qwen2.5-7b,视觉模型我选的是llava。在选择语言模型这一块要选支持调用tools的,支持function call的,ollama官方的文档有写清楚哪些模型支持这个:https://ollama.com/search?c=toolsollamarunqwen2.5:7bollamarunllava 第一次拉模型的朋友可能会慢一些,因为它要从网上下载模型到本地。看到这个"Send a message"的信息说明本地模型启动成功了。如果你之前没有做什么改动的话,那默认的端口就是本地的11434端口。启动完ollama模型,我们就得修改openmanus的配置文件了,名称和base_url填进去,没修改其他东西就默认是 http://127.0.0.1:11434/v1,api_key随便填一个,但不能为空。填写完之后记得保存,然后就可以开始启动openmanus了,我是在openmanus的项目文件夹启动: 1、为什么我在其他地方的模型配置就成功了,在openmanus就不行了?答:要看你其他地方是不是调用openai兼容接口,不是的话那跑不通才正常,openmanus是调用openai兼容接口的,当然现在新版也出了azure的接口。2、启动后输入对话报错,说模型不支持tools怎么办?答:不管你调用硅基、deepseek、openai、ollama还是其他服务商的模型,他们官网都有文档写了支持tools的模型,每个服务商的不一样,自己去查。答:ctrl c直接停止,这个是因为模型没有调用停止的tool,也还是不稳定的原因,等官方优化。6、调用的google search没网络或者没法连上怎么办? |