OpenClaw纯国内网络部署+接入本地AI大模型
教程2026-03-29620
OpenClaw 国内网络零门槛安装与使用教程
安装前准备
安装 Git
安装 Node.js
打开 Node.js 官网下载程序。
安装界面中,勾选 “自动安装工具” 选项,可自动处理 Python 等依赖,勾选后会自动弹出 CMD 界面完成安装。
配置 Git 环境
右下角搜索 PowerShell,右击以管理员身份运行。
输入指定代码并回车(具体代码需根据实际情况补充)。
安装 OpenClaw
OpenClaw 基础设置
在 PowerShell 中输入进入设置界面。
依次选择 “Yes→QuickStart”。
配置云端模型时,选择国内模型(演示选择 qwen),之后选择 “Keep current”。
后续步骤均选择 “Skip for now” 或 “no”。
Gateway 设置:首次设置会自动安装,若已安装可选择 “Reinstall”。
完成后选择 “open the Web UI”,自动打开聊天界面,基础设置完成。
功能测试任务
任务一:创建文件
任务二:整理文件列表
任务三:生成 Python 代码
接入本地 Ollama 模型
前提准备
界面设置
打开 OpenClaw,依次点击 “Config→Models→Providers→Add Entry”。
找到 “custom-1”,API 选择 “openAI-completion”,名称改为 “ollama”,API key 可随意填写。
Auth 选择 “API key”,Base Url 填写 “http://127.0.0.1:11434/v1”。
点击 “models” 下的 “Add”,API 选择 “openai-completion”,Max_tokens 设为较大值(如 6 万),ID 填写本地模型名称(如 qwen3:32b)。
input 点击 “ADD” 选择 “text”,TOKEN 设为较大值,name 填写模型名称,点击右上角 “save”。
配置文件修改
找到本地 OpenClaw 文件夹中的 JSON 配置文件,用记事本打开。
找到 “agent” 配置处,复制原脚本并修改为 Ollama 及 qwen32B 模型,将默认模型(primary)设为本地 qwen 模型,保存文件。
重启程序
接入 Ollama 云端模型
准备工作
配置步骤
同本地模型设置步骤,在 OpenClaw 界面及配置文件中修改模型名称为 glm-4.7。
登录 Ollama 官网账户,在 PowerShell 中输入,点击链接并在网页中点击 “connect”,完成模型切换。
版权声明:如发现本站有侵权违规内容,请发送邮件至yrdown@88.com举报,一经核实,将第一时间删除。



















