链载Ai

标题: Ollama进阶-本地代码补全助手 [打印本页]

作者: 链载Ai    时间: 6 小时前
标题: Ollama进阶-本地代码补全助手


Ollama是一个用于构建大语言模型应用的工具,它提供了一些简单易用的CLI和服务器,能够让用户轻松下载、运行和管理各种开源LLM。


一. 如何使用?

本文以 windows 环境为例,但实际体验来看,同等硬件环境下 linux 系统体验会更流畅些。

1.1 安装ollama

https://ollama.com/download/OllamaSetup.exe

特别记录下Docker版本的安装:

CPU版本

dockerrun-d-vollama:/root/.ollama-p11434:11434--nameollamaollama/ollama

GPU版本

同时还需要先安装 Nvidacontainertoolkit,

下载链接如下

https://docs.nvidia.com/datacenter/cloud-native/container-toolkit/latest/install-guide.html#installation
dockerrun-d--gpus=all-vollama:/root/.ollama-p11434:11434--nameollamaollama/ollama

Ollama常用命令

启动ollama

ollamaserve

查看已有模型列表

ollamalist

下载模型-以千问72b为例

ollamapullqwen2:72b

运行模型

ollamarunqwen2:72b

docker容器运行模型

dockerexec-itollamaollamarunqwen2:72b



AI提效-本地代码补全助手+AI助手

我们通过结合代码生成模型+Ollama+IDE插件来打造一个强大的、模块化的、自娱自乐的代码补全助手。例如使用 Codeqwen 7B模型+vscode的continue插件,即可实现高效便捷的代码补全功能。

推荐的模型组合:Codeqwen 7b+Qwen2 7B模型

ollamaruncodeqwenollamarunqwen2:7b

这两个模型中,codeqwen 7b是一个专门用于代码补全的模型,qwen2 7b又是个通用的聊天模型,并且两者都不是重量级模型,在本地运行也不会那么费劲。这两个模型结合起来就能很好地实现代码补全+AI助手的聊天功能。

下载并运行好上述两个模型后,再去到vscode 进行配置,编辑 continue插件的config.json :

{"models":[{"title":"Codeqwen7B","provider":"ollama","model":"codeqwen","apiBase":"http://127.0.0.1:11434"}],"tabAutocompleteModel":{"title":"Qwen27B","provider":"ollama","model":"qwen2:7b","apiBase":"http://127.0.0.1:11434"}}

再加上RAG向量检索优化聊天

首先,continue插件内置了 @codebase 上下文provider,能自动从代码库检索到最相关的代码片段。假如我们用自己的本地的聊天模型,那么借助 Ollama与LanceDB向量化技术,可以去更高效的进行代码检索和聊天体验。

ollamapullnomic-embed-textollamarunnomic-embed-text

继续配置 config.json

都折腾完了之后跑下试试

代码补全效果及对话功能验证

其他有价值的点还包括代码自动注释等功能可自行拓展。

至此,一个乞丐版 cursor 基本搭建完成了。






欢迎光临 链载Ai (https://www.lianzai.com/) Powered by Discuz! X3.5