返回顶部
热门问答 更多热门问答
技术文章 更多技术文章

Ollama进阶-本地代码补全助手

[复制链接]
链载Ai 显示全部楼层 发表于 1 小时前 |阅读模式 打印 上一主题 下一主题


Ollama是一个用于构建大语言模型应用的工具,它提供了一些简单易用的CLI和服务器,能够让用户轻松下载、运行和管理各种开源LLM。


一. 如何使用?

本文以 windows 环境为例,但实际体验来看,同等硬件环境下 linux 系统体验会更流畅些。

1.1 安装ollama

https://ollama.com/download/OllamaSetup.exe

特别记录下Docker版本的安装:

CPU版本

dockerrun-d-vollama:/root/.ollama-p11434:11434--nameollamaollama/ollama

GPU版本

同时还需要先安装 Nvidacontainertoolkit,

下载链接如下

https://docs.nvidia.com/datacenter/cloud-native/container-toolkit/latest/install-guide.html#installation
dockerrun-d--gpus=all-vollama:/root/.ollama-p11434:11434--nameollamaollama/ollama

Ollama常用命令

启动ollama

ollamaserve

查看已有模型列表

ollamalist

下载模型-以千问72b为例

ollamapullqwen2:72b

运行模型

ollamarunqwen2:72b

docker容器运行模型

dockerexec-itollamaollamarunqwen2:72b



AI提效-本地代码补全助手+AI助手

我们通过结合代码生成模型+Ollama+IDE插件来打造一个强大的、模块化的、自娱自乐的代码补全助手。例如使用 Codeqwen 7B模型+vscode的continue插件,即可实现高效便捷的代码补全功能。

推荐的模型组合:Codeqwen 7b+Qwen2 7B模型

ollamaruncodeqwenollamarunqwen2:7b

这两个模型中,codeqwen 7b是一个专门用于代码补全的模型,qwen2 7b又是个通用的聊天模型,并且两者都不是重量级模型,在本地运行也不会那么费劲。这两个模型结合起来就能很好地实现代码补全+AI助手的聊天功能。

下载并运行好上述两个模型后,再去到vscode 进行配置,编辑 continue插件的config.json :

{"models":[{"title":"Codeqwen7B","provider":"ollama","model":"codeqwen","apiBase":"http://127.0.0.1:11434"}],"tabAutocompleteModel":{"title":"Qwen27B","provider":"ollama","model":"qwen2:7b","apiBase":"http://127.0.0.1:11434"}}

再加上RAG向量检索优化聊天

首先,continue插件内置了 @codebase 上下文provider,能自动从代码库检索到最相关的代码片段。假如我们用自己的本地的聊天模型,那么借助 Ollama与LanceDB向量化技术,可以去更高效的进行代码检索和聊天体验。

ollamapullnomic-embed-textollamarunnomic-embed-text

继续配置 config.json

都折腾完了之后跑下试试

代码补全效果及对话功能验证

其他有价值的点还包括代码自动注释等功能可自行拓展。

至此,一个乞丐版 cursor 基本搭建完成了。

回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

链载AI是专业的生成式人工智能教程平台。提供Stable Diffusion、Midjourney AI绘画教程,Suno AI音乐生成指南,以及Runway、Pika等AI视频制作与动画生成实战案例。从提示词编写到参数调整,手把手助您从入门到精通。
  • 官方手机版

  • 微信公众号

  • 商务合作

  • Powered by Discuz! X3.5 | Copyright © 2025-2025. | 链载Ai
  • 桂ICP备2024021734号 | 营业执照 | |广西笔趣文化传媒有限公司|| QQ