支持直连本地模型!无需花一分钱的 AI 代码助手插件 Continue 全面指南
February 8th, 2025

近期体验过市面上多款 AI 代码助手插件后,我发现很多产品虽然功能强大,但收费较高,让不少开发者感到望而却步。今天,我将为大家详细介绍一款开源且免费的 AI 代码助手插件 Continue,它支持 VSCode 和 JetBrains,能够接入多种 AI 模型,实现自动补全、代码检索等功能,并且可以直接调用本地模型,既满足隐私需求,也大大降低了使用成本。

👉 野卡 | 一分钟注册,轻松订阅海外线上服务

插件简介与优势

此前我体验过 Cursor 插件,其 Tab 自动补全和代码库检索功能表现优秀,但每月 20 美元的费用让不少开发者望而却步。相比之下,国内一些 AI 代码补全插件大多提供免费或试用服务,而 Continue 则以开源的姿态亮相,不仅灵活配置,还支持直连本地模型运行,对于 CPU 和显卡性能足够的用户,完全可以本地运行 3B 级别的小模型进行代码补全。

与商业插件相比,开源插件结合商业模型使用更具成本效益,而且 Continue 支持多种模型配置方案,包括常见的 Tab 补全和 Chat 模型等,能够满足不同场景下的开发需求。

安装与基本配置

首先,在 VSCode 扩展市场中搜索并安装 Continue 插件即可。插件安装完成后,用户需要根据个人需求进行详细配置。由于代码助手应用场景多样,不同模型各有侧重,因此不能仅依赖一套 OpenAI API 来解决所有问题。例如:

  • Tab 自动补全模型:适合速度要求高的 3B 大小模型,能快速响应用户操作;

  • Chat 对话模型:可以选择类似 GPT-4o 或 Claude 3.5 Sonnet 等常用对话模型。

配置文件采用严格的 JSON 格式,请确保格式正确。例如,在配置自动补全模型时,需要编辑类似如下的 JSON 代码:

json { "tabAutocompleteModel": { "title": "DeepSeek Coder", "provider": "deepseek", "model": "deepseek-coder", "apiKey": "[API_KEY]" } }

同时,Continue 还支持 Embeddings 模型和 Reranking 模型(后者对代码检索 @Codebase 功能尤为重要),用户可根据需要选择性配置。如果需要额外功能,例如多行代码补全或更大范围的代码检索,还可以参考官方文档进行深入配置。

在线模型配置

对于大部分用户来说,在线模型配置已经足以满足日常开发需求。目前在在线模型中,我比较推荐 DeepSeek,其支持 Chat 和 AutoComplete 模型,并且价格低廉,非常适合个人使用。通过注册 DeepSeek 并申请 API Key 后,按照 Continue 提供的配置文件进行设置即可。

在使用在线模型时,体验上基本能与市面上的商业插件媲美:

  • Tab 自动补全:生成效果和响应速度都令人满意;

  • Chat 面板:能够提供格式准确、内容清晰的回复。

尽管在某些自动补全细节上与 Cursor 插件相比略有差距,但总体而言,Continue 的表现已足以满足日常开发需求。此外,插件还提供类似 @Codebase 和斜杠命令(如 /edit/test 等)的扩展功能,进一步丰富了使用体验。

本地模型配置

对于追求更高隐私保护和自定义需求的开发者,Continue 同样支持本地模型配置。建议使用自定义的 Autocomplete Model,因为相较于大型 Chat 模型,本地运行的小模型在速度和响应上更具优势。

以 macOS 用户为例,我使用 Macbook Pro M2 结合 LM Studio 来加载和启动本地模型。根据 Continue 的推荐,开源模型 StarCoder2-3B 是一个非常适合 Tab 自动补全的选择。对于其他模型,如 DeepSeek 的 1.3B 和 6.7B 版本,体验各有差异:

  • StarCoder2-3B:速度快、效果优秀;

  • DeepSeek-coder-1.3B:速度快,但输出可能存在格式问题;

  • DeepSeek-coder-6.7B:响应过慢,不建议用于代码补全。

将 StarCoder2-3B 模型放入 LM Studio 的模型目录后,LM Studio 会在本地启动一个 AI 服务器,通常监听在 localhost:1234(部分工具可能使用其他端口)。接下来,在 Continue 插件的配置中,仅配置本地模型信息即可实现纯本地代码补全,不必为商业 AI 服务花费一分钱。

使用 Ollama 实现 Tab 补全

近期有用户反映,在使用 LM Studio 时出现模板兼容性问题,提示缺少 inputConfig 变量。为解决这一问题,官方文档建议使用 Ollama 来配置自动补全模型。具体步骤如下:

  1. 下载并启动 Ollama;

  2. 执行命令 ollama run qwen2.5-coder:1.5b-base 启动对应模型;

  3. 在配置文件中,调整 tabAutocompleteModel 部分如下:

    json "tabAutocompleteModel": { "title": "Tab Autocomplete Model", "provider": "ollama", "model": "qwen2.5-coder:1.5b-base" }

  4. 保存配置后,在代码文件中按下 Tab 键,即可触发自动补全。

在调整过程中,务必确保 JSON 格式正确,否则可能导致配置失败。近期 LM Studio 的 0.3.6 版本已修复部分兼容性问题,建议及时更新以获得最佳体验。

本地模型体验评测

在 Macbook Pro M2 和 RTX 3070Ti 配置下进行测试时,使用 GPU 能获得与云端解决方案无异的高速补全体验,而在纯 CPU 环境下,虽然响应速度略有下降,但整体流畅性依然令人满意。特别是在隐私要求较高的场景下,所有数据均在本地处理,无需担心信息外泄。不过,需要注意的是,对于复杂模型,低配置设备可能会面临运行压力和硬件发热问题,因此建议在条件允许的情况下选用高配置环境。

小结

总体而言,Continue 是一款非常值得推荐的 AI 代码助手插件,尤其适合注重隐私、安全性以及希望利用本地模型提升开发效率的开发者。无论是在线模型还是本地模型配置,都能满足日常开发需求,并提供灵活的扩展能力。对于追求高性价比和数据安全的开发者,Continue 无疑是一个理想选择。

👉 野卡 | 一分钟注册,轻松订阅海外线上服务

Subscribe to 注册攻略
Receive the latest updates directly to your inbox.
Nft graphic
Mint this entry as an NFT to add it to your collection.
Verification
This entry has been permanently stored onchain and signed by its creator.
More from 注册攻略

Skeleton

Skeleton

Skeleton