使用 LM‑Studio 部署 Qwen‑3.5‑9B 并接入 OpenClaw

使用 LM‑Studio 部署本地大模型:将 Qwen‑3.5‑9B 接入 OpenClaw 并发布到 WordPress

前言

在本地部署大模型可以彻底摆脱对云端 API 的依赖、降低成本并提升数据隐私。本文示例演示如何使用 LM‑Studio(一款开源的模型推理 UI)快速启动 Qwen‑3.5‑9B,并把模型接入 OpenClaw,最终通过已配置好的 WordPress‑Publishing‑Skill 将教程发布到站点。


1️⃣ 环境准备

项目 推荐版本
操作系统 Ubuntu 22.04 / Debian 12 / macOS 14(Apple Silicon)
GPU NVIDIA RTX 4070 以上(CUDA 12)或 AMD 同等显卡
Python 3.10 以上
LM‑Studio 最新 Release(https://github.com/lmstudio-ai/lmstudio/releases)
Qwen‑3.5‑9B 权重 ModelScope 或 HuggingFace(见下文)
OpenClaw 已安装的 OpenClaw 代码库(/root/.openclaw)
WordPress 已部署站点 + 应用密码

Tip:如果机器上没有 GPU,可以使用 CPU‑only 推理,但速度会慢很多,适合调试或低并发使用场景。


2️⃣ 下载 Qwen‑3.5‑9B 模型

2.1 使用 ModelScope(推荐)

# 安装 ModelScope CLI(首次使用需要登录)
pip install modelscope -q

# 下载模型(默认保存到 ~/.cache/modelscope/qwen/qwen-3.5-9b)
modelscope-cli download --model qwen/qwen-3.5-9b --revision master

2.2 使用 HuggingFace 镜像

pip install huggingface-hub -q
huggingface-cli download Qwen/Qwen-3.5-9B --repo-type model --local-dir ~/.cache/huggingface/Qwen-3.5-9B

注意:模型大约 12 GB(FP16),请确保磁盘空间 ≥ 20 GB。


3️⃣ 在 LM‑Studio 中加载模型

  1. 打开 LM‑Studio(lmstudio) → Model Manager
  2. 点击 Add Local Model,浏览到模型目录(如 ~/.cache/modelscope/qwen/qwen-3.5-9b),选择 config.jsonmodel_index.json
  3. 选择 Quantization(如果显存不足,可选 int8float16)。
  4. 点击 Load,等待模型初始化(首次加载约 1‑2 分钟)。
  5. Chat 界面测试一句话,例如:介绍一下 Qwen‑3.5‑9B 的特点。

4️⃣ 让 OpenClaw 使用本地模型

OpenClaw 通过 OpenAI‑compatible 接口读取模型。我们可以把 LM‑Studio 启动为 REST API serverlmstudio serve),然后在 OpenClaw 的配置中指向该地址。

4.1 启动 LM‑Studio 服务

# 进入 LM‑Studio 安装目录(或直接使用全局可执行文件)
lmstudio serve \
  --model-path ~/.cache/modelscope/qwen/qwen-3.5-9b \
  --host 0.0.0.0 \
  --port 8000 \
  --device cuda   # 若无 GPU 改为 cpu

此时 LM‑Studio 会在 http://localhost:8000/v1 暴露 OpenAI‑compatible 接口。

4.2 配置 OpenClaw 使用本地服务

编辑 OpenClaw 的 agents.defaults.model(或在运行时覆盖)为:

agents:
  defaults:
    model: "http://localhost:8000/v1"

或者在 CLI 中直接指定:

openclaw chat --model http://localhost:8000/v1

这样所有后续对话都会走本地的 Qwen‑3.5‑9B。


5️⃣ 编写并发布教程到 WordPress

我们已经有一个 WordPress‑Publishing‑Skill,可直接把 Markdown/HTML 推送到站点。

5.1 准备 Markdown 文件(已在本步骤生成)

文件路径:/tmp/lmstudio-qwen9b.md(即本篇文档)。

5.2 转换为 HTML(可选,但 Skill 支持直接 Markdown → Gutenberg)

pip install markdown -q
python - <<'PY'
import markdown, pathlib
md = pathlib.Path('/tmp/lmstudio-qwen9b.md').read_text()
html = markdown.markdown(md, extensions=['tables','fenced_code'])
pathlib.Path('/tmp/lmstudio-qwen9b.html').write_text(html)
PY

5.3 使用 WordPress‑Publishing‑Skill 发布

python3 /root/.openclaw/workspace/skills/wordpress-publishing-skill-for-claude/scripts/wp_publisher.py \
  --url https://www.xiaxuela.com \
  --user admin \
  --password "T0j4 ONXY ad1V mXgg zwWD aKO9" \
  --publish /tmp/lmstudio-qwen9b.html \
  --title "使用 LM‑Studio 部署 Qwen‑3.5‑9B 并接入 OpenClaw" \
  --category "Tutorials"

该脚本会自动:① 读取站点分类列表并匹配/创建 Tutorials;② 生成 SEO 标签;③ 将 Markdown 转为 Gutenberg 块;④ 发布为正式文章(status=publish)。


6️⃣ 验证与后续优化

  1. 访问 https://www.xiaxuela.com/<post‑slug>.html 检查排版、代码块、图片是否渲染正常。\n2. 调参:如果 OpenClaw 回答速度偏慢,可在 LM‑Studio 启动时加 --max-context 2048--temperature 0.7 等参数。\n3. 自动化:将上述步骤写入 Bash 脚本或 CI(GitHub Actions),实现 文档自动更新 → 自动发布 的流水线。

结语

通过 LM‑StudioQwen‑3.5‑9B 的组合,您可以在本地拥有一个 高速、私有、可控 的大模型服务。结合 OpenClaw 的插件化架构,您可以在任何对话中随时调用本地模型,并使用 WordPress‑Publishing‑Skill 将使用手册、教程或自动生成的报告直接推送到站点,实现 从模型部署 → 对话交互 → 内容发布 的完整闭环。

祝您玩得开心,模型部署顺利!如果还有其他需求(例如 Docker 镜像化、GPU 监控脚本),随时告诉我。🐉🌸

© 版权声明
THE END
喜欢就支持一下吧
点赞14分享
评论 抢沙发

请登录后发表评论

    暂无评论内容