OpenClaw 实战教程:接入智谱 AI GLM-4.7-Flash 免费模型

本教程将指导你如何在 OpenClaw 框架中配置智谱 AI 的 GLM-4.7-Flash 模型。该模型具备极高的响应速度,非常适合在 DIY8 等低功耗硬件上实现流畅的 AI 交互。

一、 前置准备

  1. 获取 API Key

    • 登录 智谱 AI 开放平台

    • 在左侧菜单进入 API Keys,创建一个新的 Key 并保存。

    • 注意:GLM-4.7-Flash 在个人版 API 中通常有大量的免费额度,无需订阅 Coding Plan 即可使用。

  2. 环境检查

    • 确保你的 Debian 13 系统已安装 Node.js 22 或更高版本。

    • 如果尚未安装 OpenClaw,请执行:

      curl -fsSL https://openclaw.ai/install.sh | bash


二、 接入 GLM-4.7-Flash 的三种方式

方案 A:使用官方配置向导(最简单)

如果你是初次安装或想通过 UI 快速配置:

  1. 在终端输入:

    Bash

     
    openclaw configure
    
  2. 按照提示选择:

    • Where will the Gateway run? -> Local (this machine)

    • Select sections to configure -> Model

    • Model/auth provider -> 选择 Z.AI (智谱 AI)

    • Mode -> 选择 API Key (不要选 Coding-Plan,除非你已订阅)

    • API Key -> 粘贴你获取的 sk-xxx 密钥。

    • Model ID -> 在列表中选择或手动输入 zai/glm-4.7-flash

方案 B:手动修改配置文件(针对开发者)

由于 GLM-4.7-Flash 是较新模型,如果配置向导中找不到,可以直接修改 DIY8 设备上的配置文件。

  1. 打开配置文件:

    Bash

     
    nano ~/.openclaw/openclaw.json
    
  2. models 部分,确保包含以下 JSON 片段:

    JSON

     
    {
      "id": "glm-4.7-flash",
      "name": "GLM-4.7 Flash",
      "reasoning": false, 
      "input": ["text"],
      "cost": { "input": 0, "output": 0 },
      "contextWindow": 128000
    }
    
  3. 将默认模型指向该模型:

    找到 agents.defaults.model,修改为:

    JSON

     
    "model": {
      "primary": "zai/glm-4.7-flash",
      "fallbacks": ["zai/glm-4.5-flash"]
    }
    

方案 C:使用 Coding Plan (针对订阅用户)

如果你参考了 docs.bigmodel.cn/cn/coding-plan 页面且拥有订阅:

  • 端点设置:必须确保使用 Coding 专用地址 https://open.bigmodel.cn/api/coding/paas/v4

  • 配置项:在 openclaw onboard 时选择 Coding-Plan-CN 模式。


三、 验证与测试

配置完成后,必须重启网关服务以使设置生效:

  1. 重启网关

    Bash

     
    openclaw gateway restart
    
  2. 进入终端对话

    Bash

     
    openclaw tui
    

    输入“你好”,如果回复速度极快且稳定,说明 GLM-4.7-Flash 已成功驱动你的 OpenClaw。

  3. 系统体检

    运行 openclaw doctor 检查是否有配置冲突或网络连接问题。


四、 针对 DIY8 硬件的优化建议

  • 启用流式输出 (Streaming):GLM-4.7-Flash 支持极速流式返回,在 OpenClaw 中开启此项可以显著提升在低功耗 mini-PC 上的用户感知体验。

  • 内存管理:在 Debian 13 上运行 OpenClaw 时,建议关闭不必要的插件,仅保留常用的 Skill,以确保 CPU 资源优先供应给消息路由。

  • 故障转移:在 fallbacks 中配置一个本地模型(如 Ollama 运行的 glm4),可以确保在断网时你的 DIY8 终端依然具备基础对话能力。


小贴士:智谱 AI 的 Flash 模型经常更新。如果你在日志中看到 404 Model Not Found,请登录开放平台确认模型 ID 是否已由 glm-4.7-flash 变更为更具体的版本号(如 glm-4.7-flash-2026xxx)。

请登录后发表评论

    没有回复内容