|
ollama是一个非常好用的本地运行大语言模型工具,让我们本地运行大语言模型变得非常简单。

-
访问ollama官网:https://ollama.com/

-
下载完安装ollama工具即可

-
打开命令行,运行大模型
ollama run llama2-chinese
-
和大模型通话

-
退出大模型
-
搭建WebUI,此处使用OpenWebUI,有docker比较方便,搭建完注册第一个用户即为管理员,进入后上面选择模型,即可对话
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

参考资源
可用的大模型列表,有适用于编程的coder,中文的,科学的,识图的,大家可根据自己需求选择和搭建:https://ollama.com/library
github地址:https://github.com/ollama/ollama
|