返回顶部
热门问答 更多热门问答
技术文章 更多技术文章

OpenManus本地ollama跑通教程 一些常见坑点

[复制链接]
链载Ai 显示全部楼层 发表于 前天 12:47 |阅读模式 打印 上一主题 下一主题
我看很多人对于本地ollama来跑openmanus还经常踩坑,这里我做个简单的视频,加上本文图文版本来理清一些东西。

安装conda环境部分,请大家根据官网readme操作,不要不看文档然后一顿操作下来搞砸了。
官方中文Readme:https://github.com/mannaandpoem/OpenManus/blob/main/README_zh.md
安装完conda环境之后,我们需要拉ollama的模型,这里我的电脑因为之前设置的原因,我需要配置ollama并行处理和多模型启动,我的命令是:
setOLLAMA_NUM_PARALLEL=setOLLAMA_MAX_LOADED_MODELS=
这个可以根据大家自己需要去配置或者不配置。
然后就可以拉模型了,语言模型我选的是qwen2.5-7b,视觉模型我选的是llava。
在选择语言模型这一块要选支持调用tools的,支持function call的,ollama官方的文档有写清楚哪些模型支持这个:
https://ollama.com/search?c=tools
拉模型命令:
ollamarunqwen2.5:7bollamarunllava
第一次拉模型的朋友可能会慢一些,因为它要从网上下载模型到本地。
看到这个"Send a message"的信息说明本地模型启动成功了。如果你之前没有做什么改动的话,那默认的端口就是本地的11434端口。
启动完ollama模型,我们就得修改openmanus的配置文件了,名称和base_url填进去,没修改其他东西就默认是 http://127.0.0.1:11434/v1,api_key随便填一个,但不能为空。
填写完之后记得保存,然后就可以开始启动openmanus了,我是在openmanus的项目文件夹启动:
pythonmain.py
如果在其他路径启动的朋友记得把路径配置好,例如:
pythonxxx/xxx/main.py
最后就成功跑通了。



这里我来补充几个常见坑点:
1、为什么我在其他地方的模型配置就成功了,在openmanus就不行了?
答:要看你其他地方是不是调用openai兼容接口,不是的话那跑不通才正常,openmanus是调用openai兼容接口的,当然现在新版也出了azure的接口。

2、启动后输入对话报错,说模型不支持tools怎么办?
答:不管你调用硅基、deepseek、openai、ollama还是其他服务商的模型,他们官网都有文档写了支持tools的模型,每个服务商的不一样,自己去查。

3、保存文件为何保存不了?
答:这是现在项目还不稳定,建议等优化。

4、任务完成了但是停止不了,一直循环。
答:ctrl c直接停止,这个是因为模型没有调用停止的tool,也还是不稳定的原因,等官方优化。

5、ollama没api?
答:没api我怎么跑得起来的?还有人一直犟。

6、调用的google search没网络或者没法连上怎么办?
答:1、换bing 2、等官方修改

7、技术力不够或不会看文档怎么办?
答:建议放弃和等懒人包,别折腾自己

回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

链载AI是专业的生成式人工智能教程平台。提供Stable Diffusion、Midjourney AI绘画教程,Suno AI音乐生成指南,以及Runway、Pika等AI视频制作与动画生成实战案例。从提示词编写到参数调整,手把手助您从入门到精通。
  • 官方手机版

  • 微信公众号

  • 商务合作

  • Powered by Discuz! X3.5 | Copyright © 2025-2025. | 链载Ai
  • 桂ICP备2024021734号 | 营业执照 | |广西笔趣文化传媒有限公司|| QQ