项目简介Tabby[1] 是一个为开发者设计的 AI 编码助手,它能够通过自我托管的方式,帮助开发者提高编码效率。 Tabby 通过集成到现有的开发环境中,提供代码补全、代码理解和其他编码辅助功能。  项目特点主要特点- OpenAPI 接口:易于与现有基础设施(例如云 IDE)集成。
- 支持消费级 GPU:能够利用 GPU 加速编码辅助功能。
使用场景Tabby 适用于希望在本地或私有云环境中使用 AI 编码助手的开发者和团队。 它可以集成到各种 IDE 或编辑器中,提供智能代码补全、代码审查、自动生成代码片段等功能。 使用方法安装配置- 安装:可以通过 Docker 快速启动 Tabby 服务,或者根据官方文档[2]进行更详细的安装配置。
- IDE/编辑器扩展:Tabby 支持多种 IDE 和编辑器的插件,如 VSCode、Vim、IntelliJ 等。
- 配置:根据需要配置 Tabby,包括模型选择、设备使用(如 GPU)、并行处理等。
- 运行:启动 Tabby 服务后,可以在 IDE 中使用其提供的功能。
快速启动示例使用 Docker 启动 Tabby 服务的命令示例: dockerrun-it\ --gpusall-p8080:8080-v$HOME/.tabby:/data\ tabbyml/tabby\ serve--modelTabbyML/StarCoder-1B--devicecuda
- 这里
--gpus all 表示使用所有可用的 GPU,-p 8080:8080 将容器的 8080 端口映射到宿主机的 8080 端口,-v $HOME/.tabby:/data 将宿主机的 .tabby 目录挂载到容器的 /data 目录,用于数据持久化。 - 这将启动 Tabby 服务,并使用指定的模型和设备。
|