Win11 + WSL2 AI 环境配置

⚙️ 系统资源预分配与优化

这是让一切流畅运行的基础。你的 32GB 内存是优势,但需要合理划分。 1. 创建 .wslconfig 文件: 在 Windows 用户目录 (C:\Users\你的用户名) 下,创建一个名为 .wslconfig 的文件,写入以下内容:

```ini
[wsl2]
# 限制 WSL2 总内存使用,留出足够空间给 Windows 和显存共享
memory=24GB
# 限制 WSL2 使用的 CPU 核心数(根据你的CPU调整)
processors=6
# 允许 WSL2 使用部分虚拟内存,处理突发内存需求
swap=8GB
```
保存后,在 PowerShell 里执行 `wsl --shutdown`,然后重启 WSL 即可生效。这能防止 Linux 子系统占用过多内存,导致 Windows 界面卡顿。
  1. 让 GPU 在 WSL2 内可用: 这是关键。你的 RTX 4060 要在 WSL2 里被识别。在 Ubuntu 终端里运行:

    # 确保安装了正确的驱动和工具包
    sudo apt update && sudo apt install nvidia-driver-535 nvidia-utils-535 -y

    安装后,运行 nvidia-smi 命令,能看到你的 4060 显卡信息,就代表 GPU 直通成功了。

🧩 工具部署与分工

我们采用 “WSL2 主管后端服务,Windows 主管界面与创作” 的架构。所有 AI 服务和自动化工具都在 Linux 环境里运行,Windows 只负责用浏览器和剪映等软件。

服务分类 具体工具 部署位置 作用
AI 大脑 Ollama (带本地模型) WSL2 你是“大脑”,为所有工具提供私密的自然语言处理能力。
视觉引擎 ComfyUI WSL2 生成所有短剧所需的图片和视频素材。
智能调度 n8n (或 OpenClaw) WSL2 作为“总导演”,自动化串联从剧本到成片的整个流程。
后期剪辑 剪映 / PS Windows 利用原生软件进行精细剪辑、加字幕、特效和音效。

📋 推荐执行次序(按序部署)

  1. 第一步:夯实基础——部署 Ollama 和大模型 这是AI能力的核心,让 n8n 和 ComfyUI 都能调用。

    # 在 WSL2 Ubuntu 终端:
    curl -fsSL https://ollama.com/install.sh | sh
    # 拉取你之前选的 Qwen3.5-9B 量化模型
    ollama pull qwen3.5:9b-q4_K_M

    测试一下:输入 ollama run qwen3.5:9b-q4_K_M,聊几句确保没问题。

  2. 第二步:开启视觉引擎——部署 ComfyUI

    # 在 WSL2 Ubuntu 终端:
    git clone https://github.com/comfyanonymous/ComfyUI.git
    cd ComfyUI && pip install -r requirements.txt
    # 启动(默认监听 0.0.0.0:8188)
    python main.py --listen 0.0.0.0

    在 Windows 浏览器打开 http://localhost:8188,熟悉界面并安装后续用到的节点。

  3. 第三步:请出总导演——部署 n8n

    # 在 WSL2 Ubuntu 终端:
    docker run -d --name n8n \
      -p 5678:5678 \
      -v n8n_data:/home/node/.n8n \
      --restart unless-stopped \
      n8nio/n8n

    在 Windows 浏览器打开 http://localhost:5678,完成初始化设置。之后你就可以在 n8n 里创建能调用 Ollama、ComfyUI 的工作流了。

🔗 让流水线动起来:n8n 工作流实战

现在,我们把这些服务串联成一个自动化短剧生成流程。 1. 在 n8n 中创建核心工作流: * 触发节点:选择一个 WebhookManual 触发器,用来接收你的指令或定时任务。 * 剧本创作节点:添加 Ollama 节点,选择 qwen3.5 模型,用一段精炼的提示词生成分镜脚本。 * 素材生成节点:通过 HTTP Request 节点,将脚本中的每个画面描述,发送给 ComfyUI 的 API 端点,触发图片或视频片段的生成。 * (可选) 后期合成节点:可以用 Execute Command 节点在 WSL2 内调用 FFmpeg 命令,将生成的片段初步合成。精细剪辑依然留给 Windows 上的剪映。

  1. 跨系统协作技巧
    • 服务地址:在 n8n 节点中,ComfyUI 的地址是 http://host.docker.internal:8188(因为 n8n 在 Docker 内),Ollama 的地址是 http://host.docker.internal:11434
    • 结果输出:你可以让 n8n 将生成的视频文件保存到 WSL2 的文件系统中,然后通过 Windows 的资源管理器,直接在地址栏输入 \\wsl$\Ubuntu\home\你的用户名\ 就能访问并拖到剪映进行后续加工。

这套架构将复杂的、吃资源的AI计算都封装在了 WSL2 的黑盒里,Windows 侧始终保持清爽,专注于内容创作和体验。你的硬件跑这套“创作流水线”会非常高效。如果在具体连接或节点配置时遇到任何细节问题,随时可以再问我。