近期体验过市面上多款 AI 代码助手插件后,我发现很多产品虽然功能强大,但收费较高,让不少开发者感到望而却步。今天,我将为大家详细介绍一款开源且免费的 AI 代码助手插件 Continue,它支持 VSCode 和 JetBrains,能够接入多种 AI 模型,实现自动补全、代码检索等功能,并且可以直接调用本地模型,既满足隐私需求,也大大降低了使用成本。
此前我体验过 Cursor 插件,其 Tab 自动补全和代码库检索功能表现优秀,但每月 20 美元的费用让不少开发者望而却步。相比之下,国内一些 AI 代码补全插件大多提供免费或试用服务,而 Continue 则以开源的姿态亮相,不仅灵活配置,还支持直连本地模型运行,对于 CPU 和显卡性能足够的用户,完全可以本地运行 3B 级别的小模型进行代码补全。
与商业插件相比,开源插件结合商业模型使用更具成本效益,而且 Continue 支持多种模型配置方案,包括常见的 Tab 补全和 Chat 模型等,能够满足不同场景下的开发需求。
首先,在 VSCode 扩展市场中搜索并安装 Continue 插件即可。插件安装完成后,用户需要根据个人需求进行详细配置。由于代码助手应用场景多样,不同模型各有侧重,因此不能仅依赖一套 OpenAI API 来解决所有问题。例如:
Tab 自动补全模型:适合速度要求高的 3B 大小模型,能快速响应用户操作;
Chat 对话模型:可以选择类似 GPT-4o 或 Claude 3.5 Sonnet 等常用对话模型。
配置文件采用严格的 JSON 格式,请确保格式正确。例如,在配置自动补全模型时,需要编辑类似如下的 JSON 代码:
json { "tabAutocompleteModel": { "title": "DeepSeek Coder", "provider": "deepseek", "model": "deepseek-coder", "apiKey": "[API_KEY]" } }
同时,Continue 还支持 Embeddings 模型和 Reranking 模型(后者对代码检索 @Codebase 功能尤为重要),用户可根据需要选择性配置。如果需要额外功能,例如多行代码补全或更大范围的代码检索,还可以参考官方文档进行深入配置。
对于大部分用户来说,在线模型配置已经足以满足日常开发需求。目前在在线模型中,我比较推荐 DeepSeek,其支持 Chat 和 AutoComplete 模型,并且价格低廉,非常适合个人使用。通过注册 DeepSeek 并申请 API Key 后,按照 Continue 提供的配置文件进行设置即可。
在使用在线模型时,体验上基本能与市面上的商业插件媲美:
Tab 自动补全:生成效果和响应速度都令人满意;
Chat 面板:能够提供格式准确、内容清晰的回复。
尽管在某些自动补全细节上与 Cursor 插件相比略有差距,但总体而言,Continue 的表现已足以满足日常开发需求。此外,插件还提供类似 @Codebase 和斜杠命令(如 /edit
、/test
等)的扩展功能,进一步丰富了使用体验。
对于追求更高隐私保护和自定义需求的开发者,Continue 同样支持本地模型配置。建议使用自定义的 Autocomplete Model,因为相较于大型 Chat 模型,本地运行的小模型在速度和响应上更具优势。
以 macOS 用户为例,我使用 Macbook Pro M2 结合 LM Studio 来加载和启动本地模型。根据 Continue 的推荐,开源模型 StarCoder2-3B 是一个非常适合 Tab 自动补全的选择。对于其他模型,如 DeepSeek 的 1.3B 和 6.7B 版本,体验各有差异:
StarCoder2-3B:速度快、效果优秀;
DeepSeek-coder-1.3B:速度快,但输出可能存在格式问题;
DeepSeek-coder-6.7B:响应过慢,不建议用于代码补全。
将 StarCoder2-3B 模型放入 LM Studio 的模型目录后,LM Studio 会在本地启动一个 AI 服务器,通常监听在 localhost:1234
(部分工具可能使用其他端口)。接下来,在 Continue 插件的配置中,仅配置本地模型信息即可实现纯本地代码补全,不必为商业 AI 服务花费一分钱。
近期有用户反映,在使用 LM Studio 时出现模板兼容性问题,提示缺少 inputConfig
变量。为解决这一问题,官方文档建议使用 Ollama 来配置自动补全模型。具体步骤如下:
下载并启动 Ollama;
执行命令 ollama run qwen2.5-coder:1.5b-base
启动对应模型;
在配置文件中,调整 tabAutocompleteModel
部分如下:
json "tabAutocompleteModel": { "title": "Tab Autocomplete Model", "provider": "ollama", "model": "qwen2.5-coder:1.5b-base" }
保存配置后,在代码文件中按下 Tab 键,即可触发自动补全。
在调整过程中,务必确保 JSON 格式正确,否则可能导致配置失败。近期 LM Studio 的 0.3.6 版本已修复部分兼容性问题,建议及时更新以获得最佳体验。
在 Macbook Pro M2 和 RTX 3070Ti 配置下进行测试时,使用 GPU 能获得与云端解决方案无异的高速补全体验,而在纯 CPU 环境下,虽然响应速度略有下降,但整体流畅性依然令人满意。特别是在隐私要求较高的场景下,所有数据均在本地处理,无需担心信息外泄。不过,需要注意的是,对于复杂模型,低配置设备可能会面临运行压力和硬件发热问题,因此建议在条件允许的情况下选用高配置环境。
总体而言,Continue 是一款非常值得推荐的 AI 代码助手插件,尤其适合注重隐私、安全性以及希望利用本地模型提升开发效率的开发者。无论是在线模型还是本地模型配置,都能满足日常开发需求,并提供灵活的扩展能力。对于追求高性价比和数据安全的开发者,Continue 无疑是一个理想选择。