在编程工具中使用 Kimi K2.5 模型
kimi-k2.5 是一款具备超强代码和 Agent 能力的 MoE 架构基础模型,我们以 Claude Code, VS Code & Cline/RooCode 为示例,说明如何使用 kimi-k2.5 系列模型。
2026年1月27日最新发布 kimi-k2.5 模型,支持256K上下文窗口,原生融合文本与视觉理解,具备 Agent 集群协作模式,在智能体任务、代码生成、视觉推理等复杂场景表现领先。
2025年11月6日最新发布 kimi-k2-thinking 和 kimi-k2-thinking-turbo 模型,支持 256k 上下文,支持多步工具调用与思考,擅长解决更复杂的问题。
2025年9月5日最新发布 kimi-k2-0905-preview 模型,上下文窗口扩展至 256K,代码能力更强。如果您需要更快的响应速度,可以使用 kimi-k2-turbo-preview 模型,它始终对标最新版本的 kimi-k2 并保持功能一致,但输出速度已提升到 60tokens/s,最高可达 100 tokens/s。
使用注意事项
在使用大模型进行代码生成时,由于模型的随机性和复杂性,可能需要多次尝试才能生成符合预期的代码。编程工具会自动进行多轮重试和调用,这可能导致 token 用量快速增长。为了更好地控制成本和使用体验,我们建议您注意以下几点:
-
预算控制
- 设置日消费上限:在使用前,请前往Kimi 开放平台项目设置 (opens in a new tab)配置「项目日消费预算」。一旦达到预算上限,系统将自动拒绝该项目下所有 API 请求(注:由于计费延迟,限制生效可能有约 10 分钟延迟)。设置方式请见组织管理最佳实践
- 余额预警提醒:建议开启账户余额提醒功能。当账户余额低于预设金额(默认 ¥20)时,系统会通过短信通知您及时充值。
-
使用建议
- 持续监控:建议在编程软件运行期间保持监控,及时处理异常情况,避免因无限循环或过度重试造成不必要的资源消耗。
- 模型选择:如果对响应速度要求不高,可以选择使用
kimi-k2-0905-preview或kimi-k2-0711-preview模型,它的 token 消耗相对较慢,更适合长时间运行的场景。
K2 Vendor Verifier
Kimi 模型始终专注于 agentic loop,工具调用的可靠性至关重要。为此,我们推出了 K2 Vendor Verifier (K2VV) (opens in a new tab) 来评测不同供应商的 Kimi API 工具调用质量,帮助您直观对比各供应商的准确性差异。
最新更新:K2VV 已扩展至 12 家供应商,开源了更多测试数据。欢迎在此处 (opens in a new tab)反馈您关心的测试指标。
获取 API Key
- 访问开放平台 https://platform.moonshot.cn/console/api-keys (opens in a new tab) 创建获取 API Key,选择 default 默认项目。

在 Claude Code 中使用 kimi k2.5 thinking 模型
安装 Claude Code
若您已安装好 Claude Code ,可以跳过这一步
MacOS 和 Linux
# MacOS 和 Linux 上安装 nodejs
curl -fsSL https://fnm.vercel.app/install | bash
# 新开一个terminal,让 fnm 生效
fnm install 24.3.0
fnm default 24.3.0
fnm use 24.3.0
# 安装 claude-code
npm install -g @anthropic-ai/claude-code --registry=https://registry.npmmirror.com
# 初始化配置
node --eval "
const homeDir = os.homedir();
const filePath = path.join(homeDir, '.claude.json');
if (fs.existsSync(filePath)) {
const content = JSON.parse(fs.readFileSync(filePath, 'utf-8'));
fs.writeFileSync(filePath,JSON.stringify({ ...content, hasCompletedOnboarding: true }, 2), 'utf-8');
} else {
fs.writeFileSync(filePath,JSON.stringify({ hasCompletedOnboarding: true }), null, 'utf-8');
}"Windows
# 打开 windows 终端中的 powershell 终端
# windows 上安装 nodejs
# 右键按 Windows 按钮,点击「终端」
# 然后依次执行下面的
winget install OpenJS.NodeJS
Set-ExecutionPolicy -Scope CurrentUser RemoteSigned
# 然后关闭终端窗口,新开一个终端窗口
# 安装 claude-code
npm install -g @anthropic-ai/claude-code --registry=https://registry.npmmirror.com
# 初始化配置
node --eval "
const homeDir = os.homedir();
const filePath = path.join(homeDir, '.claude.json');
if (fs.existsSync(filePath)) {
const content = JSON.parse(fs.readFileSync(filePath, 'utf-8'));
fs.writeFileSync(filePath,JSON.stringify({ ...content, hasCompletedOnboarding: true }, 2), 'utf-8');
} else {
fs.writeFileSync(filePath,JSON.stringify({ hasCompletedOnboarding: true }), null, 'utf-8');
}"配置环境变量
完成 Claude Code 安装后,请按照以下方式设置环境变量使用 kimi-k2.5 模型,并启动 Claude。
注:如果仍然需选择 kimi-k2 慢速版模型,可以将下方模型替换为 kimi-k2-thinking 来使用。
MacOS 和 Linux
# Linux/macOS 启动高速版 kimi-k2.5 模型
export ANTHROPIC_BASE_URL=https://api.moonshot.cn/anthropic
export ANTHROPIC_AUTH_TOKEN=${YOUR_MOONSHOT_API_KEY}
export ANTHROPIC_MODEL=kimi-k2.5
export ANTHROPIC_DEFAULT_OPUS_MODEL=kimi-k2.5
export ANTHROPIC_DEFAULT_SONNET_MODEL=kimi-k2.5
export ANTHROPIC_DEFAULT_HAIKU_MODEL=kimi-k2.5
export CLAUDE_CODE_SUBAGENT_MODEL=kimi-k2.5
export ENABLE_TOOL_SEARCH=false
claudeWindows
# Windows Powershell 启动高速版 kimi-k2.5 模型
$env:ANTHROPIC_BASE_URL="https://api.moonshot.cn/anthropic";
$env:ANTHROPIC_AUTH_TOKEN="YOUR_MOONSHOT_API_KEY"
$env:ANTHROPIC_MODEL="kimi-k2.5"
$env:ANTHROPIC_DEFAULT_OPUS_MODEL="kimi-k2.5"
$env:ANTHROPIC_DEFAULT_SONNET_MODEL="kimi-k2.5"
$env:ANTHROPIC_DEFAULT_HAIKU_MODEL="kimi-k2.5"
$env:CLAUDE_CODE_SUBAGENT_MODEL="kimi-k2.5"
$env:ENABLE_TOOL_SEARCH=false
claude确认环境变量是否生效
在Claude Code中输入/status确认模型状态:

- 如何在 Claude Code 中体验
kimi-k2.5思考能力- 请在配置 turbo 模型后,进入 Claude Code 页面后点击
Tab按钮切换,切换成功可看到 "Thinking on" 的标识。
- 请在配置 turbo 模型后,进入 Claude Code 页面后点击

接下来就可以正常使用 Claude Code 进行开发了!
在 Cline 中使用 kimi k2.5 模型
安装 Cline
- 打开 VS Code
- 点击左侧活动栏中的扩展图标(或使用快捷键
Ctrl+Shift+X/Cmd+Shift+X) - 在搜索框中输入
cline - 找到
Cline扩展(通常由 Cline Team 发布) - 点击
Install按钮进行安装 - 安装完成后,可能需要重启 VS Code

验证安装
安装完成后,您可以:
- 在 VS Code 左侧活动栏中看到 Cline 图标
- 或者通过命令面板(
Ctrl+Shift+P/Cmd+Shift+P)搜索 "Cline" 相关命令来验证安装成功
官方推荐:配置 Moonshot Provider 使用 kimi-k2.5 模型
- API Provider 选择 'Moonshot'
- Moonshot Entrypoint 选择 'api.moonshot.cn'
- Moonshot API Key 配置从 Kimi 开放平台获取的 Key
- Model 选择 'kimi-k2.5'
- Browser 勾选 'Disable browser tool usage'
- 点击'Done',保存配置

在 cline 中体验 kimi-k2.5 模型效果
- 我们让 kimi-k2.5 模型写一个贪吃蛇游戏
- 游戏的效果
在 RooCode 中使用 kimi k2.5 模型
安装 RooCode
- 打开 VS Code
- 点击左侧活动栏中的扩展图标(或使用快捷键
Ctrl+Shift+X/Cmd+Shift+X) - 在搜索框中输入
roo code - 找到
Roo Code扩展(通常由 RooCode Team 发布) - 点击
安装按钮进行安装 - 安装完成后,可能需要重启 VS Code

验证安装
安装完成后,您可以:
- 在 VS Code 左侧活动栏中看到 RooCode 图标
- 或者通过命令面板(
Ctrl+Shift+P/Cmd+Shift+P)搜索 "RooCode" 相关命令来验证安装成功
官方推荐:配置 Moonshot Provider 使用 kimi-k2.5 模型
- API Provider 选择 'Moonshot'
- Moonshot Entrypoint 选择 'api.moonshot.cn'
- Moonshot API Key 配置从 Kimi 开放平台获取的 Key
- Model 选择 'kimi-k2.5'
- Browser 勾选 'Disable browser tool usage'

直接使用 API 调用 kimi-k2.5 模型
from openai import OpenAI
client = OpenAI(
api_key = "$MOONSHOT_API_KEY",
base_url = "https://api.moonshot.cn/v1",
)
completion = client.chat.completions.create(
model = "kimi-k2.5",
messages = [
{"role": "system", "content": "你是 Kimi,由 Moonshot AI 提供的人工智能助手,你更擅长中文和英文的对话。你会为用户提供安全,有帮助,准确的回答。同时,你会拒绝一切涉及恐怖主义,种族歧视,黄色暴力等问题的回答。Moonshot AI 为专有名词,不可翻译成其他语言。"},
{"role": "user", "content": "你好,我叫李雷,1+1等于多少?"}
]
)
print(completion.choices[0].message.content)其中 $MOONSHOT_API_KEY 需要替换为您在平台上创建的 API Key。
如需使用 kimi-k2-turbo-preview 模型,请将模型名称替换为 kimi-k2-turbo-preview 即可。
使用 OpenAI SDK 时运行文档中的代码时,需要保证 Python 版本至少为 3.7.1,Node.js 版本至少为 18,OpenAI SDK 版本不低于 1.0.0。