OpenClaw纯国内网络部署+接入本地AI大模型

教程2026-03-29620

OpenClaw纯国内网络部署+接入本地AI大模型,OpenClaw纯国内网络部署+接入本地AI大模型,OpenClaw,第1张

OpenClaw 国内网络零门槛安装与使用教程

安装前准备

需提前安装两个基础软件:Git 和 Node.js,全程国内网络环境,无需梯子。

安装 Git

前往 Git 官网下载并安装程序,安装过程默认下一步即可。

安装 Node.js

  1. 打开 Node.js 官网下载程序。

  1. 安装界面中,勾选 “自动安装工具” 选项,可自动处理 Python 等依赖,勾选后会自动弹出 CMD 界面完成安装。

配置 Git 环境

  1. 右下角搜索 PowerShell,右击以管理员身份运行。

  1. 输入指定代码并回车(具体代码需根据实际情况补充)。

安装 OpenClaw

在 PowerShell 中输入命令:,完成软件安装。

OpenClaw 基础设置

  1. 在 PowerShell 中输入进入设置界面。

  1. 依次选择 “Yes→QuickStart”。

  1. 配置云端模型时,选择国内模型(演示选择 qwen),之后选择 “Keep current”。

  1. 后续步骤均选择 “Skip for now” 或 “no”。

  1. Gateway 设置:首次设置会自动安装,若已安装可选择 “Reinstall”。

  1. 完成后选择 “open the Web UI”,自动打开聊天界面,基础设置完成。

功能测试任务

任务一:创建文件

指令:在桌面创建 “测试.txt” 文件,内容为 “HelloOpenClaw”。测试结果:成功创建文件并写入内容。

任务二:整理文件列表

指令:整理 “文档” 文件夹中所有 PDF 文件列表。测试结果:成功完成整理。

任务三:生成 Python 代码

指令:用 Python 生成数据为 1324 的简单折线图并保存为图片。测试结果:生成图片保存在 workspaces 文件夹,折线图符合数据顺序。

接入本地 Ollama 模型

前提准备

需先下载 Ollama 软件及对应模型(如 qwen32B)。

界面设置

  1. 打开 OpenClaw,依次点击 “Config→Models→Providers→Add Entry”。

  1. 找到 “custom-1”,API 选择 “openAI-completion”,名称改为 “ollama”,API key 可随意填写。

  1. Auth 选择 “API key”,Base Url 填写 “http://127.0.0.1:11434/v1”。

  1. 点击 “models” 下的 “Add”,API 选择 “openai-completion”,Max_tokens 设为较大值(如 6 万),ID 填写本地模型名称(如 qwen3:32b)。

  1. input 点击 “ADD” 选择 “text”,TOKEN 设为较大值,name 填写模型名称,点击右上角 “save”。

配置文件修改

  1. 找到本地 OpenClaw 文件夹中的 JSON 配置文件,用记事本打开。

  1. 找到 “agent” 配置处,复制原脚本并修改为 Ollama 及 qwen32B 模型,将默认模型(primary)设为本地 qwen 模型,保存文件。

重启程序

关闭命令行及网页,在 PowerShell 中输入重启程序,模型切换成功。

接入 Ollama 云端模型

准备工作

以 glm-4.7 模型为例,先下载基础文件到 Ollama 本地。

配置步骤

  1. 同本地模型设置步骤,在 OpenClaw 界面及配置文件中修改模型名称为 glm-4.7。

  1. 登录 Ollama 官网账户,在 PowerShell 中输入,点击链接并在网页中点击 “connect”,完成模型切换。


版权声明:如发现本站有侵权违规内容,请发送邮件至yrdown@88.com举报,一经核实,将第一时间删除。

发布评论

文章目录