vscode一直支持的都是云端闭源的模型例如 GPT Claude等等当这些闭源模型的免费额度用完之后则需要付费继续使用。本文介绍的是vscode接入ollama的本地模型从而实现token自由。ollama首先需要到ollama的官网下载ollama应用详见这里。然后下载机器硬件所能支撑的模型如下vscodevscode登录GitHub账号之后进入对应的chat界面如下点击上图红色区域部分下拉选择管理模型如下点击上图红色部分增加ollama模型会跳出ollama默认的地址完成默认的设置完成后如下如果想要vscode可以选择本地的模型还需要将应用的模型变为可见如上图的qwen2.5和qwen3.5。在聊天选中对应的本地模型如qwen3.5有了本地的模型之后在vscode中就不用担心后续token消耗过大了。本文简单介绍了vscode如何添加ollama本地模型后续更多的关于AI方面的介绍将在后续我的专栏《AI安全》专栏详细说明见这里。