2025 / 7 / 12
昨天晚上(20250711)刷到开源的 Kimi K2 模型(非推理模型)。
意外地是看到支持 Anthropic 协议,印象里面还没有其他官方模型主动支持的(大家都是 OpenAI compatible),这不是一下就来了兴致。研究了一下怎么在 Claude Code 中用 Kimi K2。
直接说结论,在已安装过 ClaudeCode 的情况下,不用安装任何新的玩意就能用上:
打开命令行导出两个环境变量即可(ANTHROPIC_BASE_URL 和 ANTHROPIC_AUTH_TOKEN),见 P1。
export ANTHROPIC_AUTH_TOKEN=sk-qViCuNrhyQaDPrELy3aM3UVZXcQmIz5Oh4iNRtm8XXXXXXXX export ANTHROPIC_BASE_URL=https://api.moonshot.cn/anthropic claude
常规在 ClaudeCode 中使用外部模型有两种方法:Proxy 代理,LLM 网关。
测了 claude-code-router(claude-bridge、anthropic-proxy 未测)。结果发现 Proxy 在上下文维持上有问题,初始化就会触发 TPM(每分钟 Token 处理量)限制,基本不可用,见 P2。
LLM Gateway 是 Claude Code 官方支持的企业级方案。
这个口子本来是开给企业级 Claude 模型用的,但是 Kimi K2 主动兼容支持了下,对 ClaueCode 客户端来说,它认为在与 Anthropic 服务器通信,实际上请求被重定向到了 Kimi 服务器,返回的响应也符合 Anthropic API 的格式要求,这样一来就能在 ClaueCode 中用 Kimi K2 模型啦。
打开项目文件夹,终端启动 Claude Code
cd /path/to/your_project claude
如果是首次启动 Claude Code,会弹出登录认证网页。
只需要编辑 $HOME/.claude.json
添加新字段 "hasCompletedOnboarding": true
即可。
至此就是全部配置完成啦。实际体验下来,用 ClaudeCode 过程中还有概率爆 TPM,账号升级 T1 后 TPM 扩大到 128000 才基本可用 (至少充 50 CNY),如果单次会话爆 TPM 可用 /clear 或开新会话。
另外,也尝试了下 VScode + Cline 使用 Kimi K2,UI 驱动逻辑打断太多,个人感觉没 ClaudeCode 丝滑。也可作为一个参考,见 P3。
最后用 CC + K2 实现了一个简单的小想法(P4,P5)。
个人感觉 ClaudeCode + Kimi K2 是国内免魔法、免第三方号商情况下 Vibe Coding 的最优解。
总的来说,K2 模型还是挺不错的,开源且 API 便宜又大碗,直接作为 LLM 应用 API 也是个十分不错的选择。