Copilot 后端代理服务,实现本地中转、离线使用和 FIM 模型本地补全。
## Github Copilot 后端代理服务基于 Docker 部署的本地离线服务,只需四步即可拥有离线的 Copilot 同款服务,速度更快,更稳定,更安全。
该服务通过接管 GitHub Copilot 插件服务端,使用其他 FIM 模型(如 DeepSeek),为开发者提供高效的代码补全功能。
支持任意符合 OpenAI 接口规范的模型,包括 DeepSeek-v2,并提供本地部署 FIM 模型方案。
**特性:**
* 使用 Docker 部署,简单方便
* 支持多种 IDE,如:VSCode、Jetbrains IDE 系列、Visual Studio 2022、HBuilderX
* 支持任意符合 OpenAI 接口规范的模型,如:DeepSeek-v2
* 完整接管 GitHub Copilot 插件 API 接口,无需担心插件升级导致服务失效
* 代码补全请求防抖设置,避免过度消耗 Tokens
**如何使用?**
确保环境干净,删除 GITHUB COPILOT 相关环境变量,更新插件最新版本后重启 IDE 即可。
**模型超参数说明:**
* CODEX_TEMPERATURE:模型温度,默认值为 1,可以调整为 0.1-1.0 之间的值。
* 不建议调整此参数,除非你了解其影响。
**内存占用说明:**
* 运行 docker-compose up -d 后,占用约 30MB-40MB 内存,不会超过 50MB 内存。
* Windows 环境的 Docker Desktop 占用约 200MB 内存。
* MacOS 环境建议使用 Orbstack 软件替代 Docker Desktop,可大幅降低内存占用。
* Linux 环境的 Docker 服务占用约 80MB 内存。
**本地部署 FIM 模型:**
* 利用 Ollama 部署 DeepSeek-v2 FIM 模型,替换 OpenAI 模型实现离线使用。
* 模型权重文件可以在 DeepSeek-v2 网站获取,直接使用 Ollama 启动即可。
* 将 Ollama 地址配置到 docker-compose.yml 文件中。
**更多信息:**
Copilot 后端代理服务: Copilot 中转服务,借助其他 FIM 模型(如 DeepSeek)来接管 GitHub Copilot 插件服务端 (gitee.com)
页:
[1]