Win11 + WSL2 AI 环境配置
⚙️ 系统资源预分配与优化
这是让一切流畅运行的基础。你的 32GB 内存是优势,但需要合理划分。 1. 创建 .wslconfig 文件: 在 Windows 用户目录 (C:\Users\你的用户名) 下,创建一个名为 .wslconfig 的文件,写入以下内容:
```ini
[wsl2]
# 限制 WSL2 总内存使用,留出足够空间给 Windows 和显存共享
memory=24GB
# 限制 WSL2 使用的 CPU 核心数(根据你的CPU调整)
processors=6
# 允许 WSL2 使用部分虚拟内存,处理突发内存需求
swap=8GB
```
保存后,在 PowerShell 里执行 `wsl --shutdown`,然后重启 WSL 即可生效。这能防止 Linux 子系统占用过多内存,导致 Windows 界面卡顿。
让 GPU 在 WSL2 内可用: 这是关键。你的 RTX 4060 要在 WSL2 里被识别。在 Ubuntu 终端里运行:
# 确保安装了正确的驱动和工具包 sudo apt update && sudo apt install nvidia-driver-535 nvidia-utils-535 -y安装后,运行
nvidia-smi命令,能看到你的 4060 显卡信息,就代表 GPU 直通成功了。
🧩 工具部署与分工
我们采用 “WSL2 主管后端服务,Windows 主管界面与创作” 的架构。所有 AI 服务和自动化工具都在 Linux 环境里运行,Windows 只负责用浏览器和剪映等软件。
| 服务分类 | 具体工具 | 部署位置 | 作用 |
|---|---|---|---|
| AI 大脑 | Ollama (带本地模型) | WSL2 | 你是“大脑”,为所有工具提供私密的自然语言处理能力。 |
| 视觉引擎 | ComfyUI | WSL2 | 生成所有短剧所需的图片和视频素材。 |
| 智能调度 | n8n (或 OpenClaw) | WSL2 | 作为“总导演”,自动化串联从剧本到成片的整个流程。 |
| 后期剪辑 | 剪映 / PS 等 | Windows | 利用原生软件进行精细剪辑、加字幕、特效和音效。 |
📋 推荐执行次序(按序部署)
第一步:夯实基础——部署 Ollama 和大模型 这是AI能力的核心,让 n8n 和 ComfyUI 都能调用。
# 在 WSL2 Ubuntu 终端: curl -fsSL https://ollama.com/install.sh | sh # 拉取你之前选的 Qwen3.5-9B 量化模型 ollama pull qwen3.5:9b-q4_K_M测试一下:输入
ollama run qwen3.5:9b-q4_K_M,聊几句确保没问题。第二步:开启视觉引擎——部署 ComfyUI
# 在 WSL2 Ubuntu 终端: git clone https://github.com/comfyanonymous/ComfyUI.git cd ComfyUI && pip install -r requirements.txt # 启动(默认监听 0.0.0.0:8188) python main.py --listen 0.0.0.0在 Windows 浏览器打开
http://localhost:8188,熟悉界面并安装后续用到的节点。第三步:请出总导演——部署 n8n
# 在 WSL2 Ubuntu 终端: docker run -d --name n8n \ -p 5678:5678 \ -v n8n_data:/home/node/.n8n \ --restart unless-stopped \ n8nio/n8n在 Windows 浏览器打开
http://localhost:5678,完成初始化设置。之后你就可以在 n8n 里创建能调用 Ollama、ComfyUI 的工作流了。
🔗 让流水线动起来:n8n 工作流实战
现在,我们把这些服务串联成一个自动化短剧生成流程。 1. 在 n8n 中创建核心工作流: * 触发节点:选择一个 Webhook 或 Manual 触发器,用来接收你的指令或定时任务。 * 剧本创作节点:添加 Ollama 节点,选择 qwen3.5 模型,用一段精炼的提示词生成分镜脚本。 * 素材生成节点:通过 HTTP Request 节点,将脚本中的每个画面描述,发送给 ComfyUI 的 API 端点,触发图片或视频片段的生成。 * (可选) 后期合成节点:可以用 Execute Command 节点在 WSL2 内调用 FFmpeg 命令,将生成的片段初步合成。精细剪辑依然留给 Windows 上的剪映。
- 跨系统协作技巧:
- 服务地址:在 n8n 节点中,ComfyUI 的地址是
http://host.docker.internal:8188(因为 n8n 在 Docker 内),Ollama 的地址是http://host.docker.internal:11434。 - 结果输出:你可以让 n8n 将生成的视频文件保存到 WSL2 的文件系统中,然后通过 Windows 的资源管理器,直接在地址栏输入
\\wsl$\Ubuntu\home\你的用户名\就能访问并拖到剪映进行后续加工。
- 服务地址:在 n8n 节点中,ComfyUI 的地址是
这套架构将复杂的、吃资源的AI计算都封装在了 WSL2 的黑盒里,Windows 侧始终保持清爽,专注于内容创作和体验。你的硬件跑这套“创作流水线”会非常高效。如果在具体连接或节点配置时遇到任何细节问题,随时可以再问我。