本教程将指导你如何在 OpenClaw 框架中配置智谱 AI 的 GLM-4.7-Flash 模型。该模型具备极高的响应速度,非常适合在 DIY8 等低功耗硬件上实现流畅的 AI 交互。
一、 前置准备
-
获取 API Key:
-
登录 智谱 AI 开放平台。
-
在左侧菜单进入 API Keys,创建一个新的 Key 并保存。
-
注意:GLM-4.7-Flash 在个人版 API 中通常有大量的免费额度,无需订阅 Coding Plan 即可使用。
-
-
环境检查:
-
确保你的 Debian 13 系统已安装 Node.js 22 或更高版本。
-
如果尚未安装 OpenClaw,请执行:
curl -fsSL https://openclaw.ai/install.sh | bash
-
二、 接入 GLM-4.7-Flash 的三种方式
方案 A:使用官方配置向导(最简单)
如果你是初次安装或想通过 UI 快速配置:
-
在终端输入:
Bashopenclaw configure -
按照提示选择:
-
Where will the Gateway run? ->
Local (this machine) -
Select sections to configure ->
Model -
Model/auth provider -> 选择
Z.AI(智谱 AI) -
Mode -> 选择
API Key(不要选 Coding-Plan,除非你已订阅) -
API Key -> 粘贴你获取的
sk-xxx密钥。 -
Model ID -> 在列表中选择或手动输入
zai/glm-4.7-flash。
-
方案 B:手动修改配置文件(针对开发者)
由于 GLM-4.7-Flash 是较新模型,如果配置向导中找不到,可以直接修改 DIY8 设备上的配置文件。
-
打开配置文件:
Bashnano ~/.openclaw/openclaw.json -
在
models部分,确保包含以下 JSON 片段:JSON{ "id": "glm-4.7-flash", "name": "GLM-4.7 Flash", "reasoning": false, "input": ["text"], "cost": { "input": 0, "output": 0 }, "contextWindow": 128000 } -
将默认模型指向该模型:
找到
agents.defaults.model,修改为:JSON"model": { "primary": "zai/glm-4.7-flash", "fallbacks": ["zai/glm-4.5-flash"] }
方案 C:使用 Coding Plan (针对订阅用户)
如果你参考了 docs.bigmodel.cn/cn/coding-plan 页面且拥有订阅:
-
端点设置:必须确保使用 Coding 专用地址
https://open.bigmodel.cn/api/coding/paas/v4。 -
配置项:在
openclaw onboard时选择Coding-Plan-CN模式。
三、 验证与测试
配置完成后,必须重启网关服务以使设置生效:
-
重启网关:
Bashopenclaw gateway restart -
进入终端对话:
Bashopenclaw tui输入“你好”,如果回复速度极快且稳定,说明 GLM-4.7-Flash 已成功驱动你的 OpenClaw。
-
系统体检:
运行
openclaw doctor检查是否有配置冲突或网络连接问题。
四、 针对 DIY8 硬件的优化建议
-
启用流式输出 (Streaming):GLM-4.7-Flash 支持极速流式返回,在 OpenClaw 中开启此项可以显著提升在低功耗 mini-PC 上的用户感知体验。
-
内存管理:在 Debian 13 上运行 OpenClaw 时,建议关闭不必要的插件,仅保留常用的 Skill,以确保 CPU 资源优先供应给消息路由。
-
故障转移:在
fallbacks中配置一个本地模型(如 Ollama 运行的 glm4),可以确保在断网时你的 DIY8 终端依然具备基础对话能力。
小贴士:智谱 AI 的 Flash 模型经常更新。如果你在日志中看到 404 Model Not Found,请登录开放平台确认模型 ID 是否已由 glm-4.7-flash 变更为更具体的版本号(如 glm-4.7-flash-2026xxx)。


没有回复内容