Stable Diffusion WebUI 完整安装教程 - 本地 AI 绘图从零开始
# Stable Diffusion WebUI 安装与使用教程
前言
Stable Diffusion 是目前最流行的开源 AI 绘画模型之一,它能够根据文字描述生成高质量的图像。而 Stable Diffusion WebUI(简称 SD WebUI)是最受欢迎的图形化界面工具,让用户无需编写代码就能轻松使用 Stable Diffusion 进行 AI 创作。
本教程将从零开始,手把手教你安装 Stable Diffusion WebUI,并详细介绍各项核心功能的使用方法。无论你是设计师、艺术家,还是对 AI 绘画感兴趣的爱好者,都能通过本教程快速上手。
---
第一章:环境准备
1.1 硬件要求
在开始安装之前,请确保你的电脑满足以下硬件要求:
推荐配置:
- 显卡:NVIDIA RTX 3060 或更高(显存 8GB 以上)
- 内存:16GB 以上
- 硬盘:至少 50GB 可用空间(SSD 优先)
- 操作系统:Windows 10/11 或 Linux
- 显卡:NVIDIA GTX 1060 6GB
- 内存:8GB
- 硬盘:30GB 可用空间
⚠️ 注意:AMD 显卡和 Intel 显卡也可以运行,但配置相对复杂,本教程以 NVIDIA 显卡为主。
1.2 软件准备
安装 SD WebUI 之前,需要先准备以下软件:
1. Python 3.10.x
Stable Diffusion WebUI 需要特定版本的 Python。推荐使用 Python 3.10.6 或 3.10.9。
# Windows 用户可以从官网下载安装 # https://www.python.org/downloads/release/python-3109/# 安装时务必勾选 "Add Python to PATH"
# 验证安装 python --version # 应显示:Python 3.10.x
2. Git
Git 用于克隆 Stable Diffusion WebUI 的代码仓库。
# Windows 用户可从 https://git-scm.com/download/win 下载 # 或使用 winget 安装 winget install Git.Git# 验证安装 git --version
3. NVIDIA 驱动
确保显卡驱动为最新版本。可访问 NVIDIA 官网下载。
---
第二章:安装 Stable Diffusion WebUI
2.1 克隆项目
打开命令行终端,执行以下命令克隆项目:
# 进入你想要安装的目录 cd D:\AI_Tools# 克隆 Stable Diffusion WebUI 仓库 git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
# 进入项目目录 cd stable-diffusion-webui
如果 GitHub 访问速度慢,可以使用国内镜像:
git clone https://ghproxy.com/https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
2.2 首次启动
首次启动时,SD WebUI 会自动下载并安装所有依赖,这可能需要较长时间(取决于网络速度)。
Windows 用户:
双击运行 webui-user.bat 文件。
Linux/Mac 用户:
./webui.sh
首次启动命令(建议添加参数以获得更好体验):
# Windows webui-user.bat --xformers --listen --enable-insecure-extension-access# Linux/Mac ./webui.sh --xformers --listen --enable-insecure-extension-access
参数说明:
--xformers:启用 xformers 加速,显著提升生成速度--listen:允许局域网访问--enable-insecure-extension-access:允许安装扩展
2.3 下载模型
Stable Diffusion 的核心是模型文件(.safetensors 或 .ckpt)。首次安装后,需要下载模型才能生成图像。
推荐模型下载地址:
1. Civitai(最流行的模型分享网站) - 网址:https://civitai.com - 推荐模型:Realistic Vision、ChilloutMix(写实风格)、Anything V5(动漫风格)
2. Hugging Face - 网址:https://huggingface.co/models - 官方模型:stabilityai/stable-diffusion-xl-base-1.0
模型安装位置:
将下载的模型文件放入以下目录:
stable-diffusion-webui/
└── models/
└── Stable-diffusion/
├── model1.safetensors
├── model2.safetensors
└── ...
启动 WebUI 后,在左上角的模型下拉菜单中选择你的模型即可使用。
---
第三章:文生图(Text to Image)
3.1 界面介绍
启动成功后,浏览器会自动打开 http://127.0.0.1:7860。主要界面包括:
- 模型选择:左上角下拉菜单
- 提示词(Prompt):描述你想要生成的图像内容
- 反向提示词(Negative Prompt):描述你不希望出现的内容
- 参数设置:采样方法、步数、尺寸等
- 生成按钮:点击开始生成
3.2 提示词编写技巧
基本格式:
正向提示词:主体描述, 风格描述, 质量词汇, 灯光效果, 其他细节反向提示词:低质量元素, 不想要的内容, 常见问题词汇
实战示例:
正向提示词: a beautiful young woman, long black hair, wearing white dress, standing in a flower garden, soft sunlight, detailed face, masterpiece, best quality, ultra realistic, 8k uhd反向提示词: lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username
3.3 核心参数详解
1. 采样方法(Sampler)
不同的采样方法会影响生成质量和速度:
- Euler a:速度快,质量不错,适合快速预览
- DPM++ 2M Karras:推荐用于写实风格,质量与速度平衡
- DPM++ SDE Karras:质量最高,但速度较慢
- 推荐 20-30 步
- 步数过低会导致图像模糊
- 步数过高会浪费计算资源,提升有限
- 推荐使用 512×512 或 512×768(基于 SD 1.5 模型)
- SDXL 模型推荐 1024×1024
- 尺寸过大会导致画面元素重复
- 推荐值:7-12
- 值越高,图像越严格遵循提示词
- 值过低,图像会更自由发挥
- 固定种子可重现相同图像
- 设置为 -1 表示每次随机
3.4 实战案例
案例:生成一张动漫风格的猫娘
提示词: anime girl, cat ears, fluffy tail, cute face, big eyes, pink hair, wearing school uniform, cherry blossoms background, soft lighting, detailed illustration, high quality, masterpiece反向提示词: ugly, low quality, worst quality, bad anatomy, bad hands, text, watermark, extra limbs
参数设置: 采样方法:DPM++ 2M Karras 步数:25 尺寸:512×768 CFG Scale:8
---
第四章:图生图(Image to Image)
4.1 图生图功能介绍
图生图功能允许用户上传一张参考图,然后在保留原图基本结构的基础上进行修改或风格转换。
4.2 重绘强度(Denoising Strength)
这是图生图最重要的参数:
- 0.0-0.3:轻微修改,适合细节调整
- 0.4-0.6:中等修改,保留基本结构
- 0.7-1.0:大幅修改,几乎重新生成
4.3 实战案例:照片转油画风格
步骤: 1. 切换到 img2img 标签页 2. 上传一张照片 3. 设置重绘尺寸 4. 输入提示词: oil painting style, thick brush strokes, impressionist, vibrant colors, artistic, masterpiece参数设置: 重绘强度:0.6 采样方法:Euler a 步数:30
4.4 局部重绘(Inpaint)
局部重绘允许只修改图像的特定区域:
1. 上传图片后,使用画笔涂抹需要修改的区域 2. 输入新的提示词描述你想要的修改 3. 调整重绘强度(建议 0.7-0.9)
案例:给人物换装
原图片:穿白衬衫的人物 涂抹区域:衣服部分 提示词:red dress, elegant, silk fabric 重绘强度:0.75
---
第五章:高级功能
5.1 ControlNet 使用
ControlNet 是强大的控制插件,可以让 AI 更精确地按照你的要求生成图像。
安装方法:
1. 进入 Extensions → Available 2. 搜索 "ControlNet" 3. 点击 Install 4. 重启 WebUI
常用 ControlNet 模型:
- Canny:边缘检测,保留轮廓
- OpenPose:姿态识别,控制人物动作
- Depth:深度估计,保留空间关系
- Tile:放大图像细节
# 姿态控制流程 1. 上传参考人物图片 2. 启用 ControlNet 3. 选择 OpenPose 预处理器和模型 4. 输入新的人物描述 5. 生成保持相同姿态的新角色
5.2 LoRA 使用
LoRA 是轻量级的模型微调文件,可以在不改变大模型的情况下添加特定风格或角色。
安装位置:
stable-diffusion-webui/
└── models/
└── Lora/
└── your-lora.safetensors
使用方法:
在提示词中添加 LoRA 调用:
提示词: a beautiful girl, masterpiece, best quality <lora:your-lora:0.8>参数说明:
- your-lora:LoRA 文件名
- 0.8:权重(0-1,推荐 0.5-0.9)
5.3 Embeddings(文本反转)
Embeddings 是一种将特定风格或角色"训练"成关键词的技术。
使用方法:
将 embedding 文件放入 embeddings/ 目录,然后在提示词中调用:
提示词: portrait of a woman, embedding_name, masterpiece
---
第六章:常见问题与解决方案
6.1 CUDA Out of Memory
问题描述: 显存不足导致生成失败
解决方案:
# 启动时添加参数 webui-user.bat --medvram# 或更低显存模式 webui-user.bat --lowvram
6.2 生成速度慢
优化方法:
1. 启用 xformers 加速 2. 降低图像尺寸 3. 减少采样步数 4. 使用更高效的采样器(如 DPM++ 2M)
6.3 黑色或绿色图像
原因: 模型文件损坏或不兼容
解决方案:
- 重新下载模型
- 确保模型格式正确(.safetensors 优先)
- 检查模型是否与 WebUI 版本兼容
6.4 人物脸部崩坏
解决方案:
反向提示词添加: bad face, bad eyes, deformed face, ugly face, asymmetrical face或使用 ADetailer 扩展进行脸部修复
---
第七章:进阶技巧
7.1 提示词权重调整
使用括号和数字调整权重:
(highlighted text) # 权重 × 1.1 (highlighted text:1.3) # 权重 × 1.3 [lowered text] # 权重 × 0.9 [lowered text:0.8] # 权重 × 0.8
7.2 步骤融合(Steps Blending)
在同一张图中使用不同风格:
提示词: [cat:dog:0.5]说明:
- 前 50% 步数生成猫的特征
- 后 50% 步数生成狗的特征
- 产生融合效果
7.3 批量生成
使用脚本进行批量生成:
# 使用 X/Y/Z Plot 扩展 # 可以自动测试不同参数组合 # 例如:测试不同 CFG 值的效果1. 进入 Script → X/Y/Z Plot 2. 选择 X 轴参数为 CFG Scale 3. 输入值:5,7,9,11,13,15 4. 生成参数对比图
---
总结
通过本教程,你已经掌握了 Stable Diffusion WebUI 的安装与核心使用方法。从基础的文生图、图生图,到高级的 ControlNet 和 LoRA,这些技能将帮助你创作出令人惊艳的 AI 艺术作品。
AI 绘画是一个需要不断实践的领域,建议多尝试不同的提示词组合、参数设置和模型风格。记住,好的提示词是成功的一半,多参考优秀作品的提示词,逐步建立自己的提示词库。
祝你在 AI 绘画的世界中创作愉快!
本文链接:https://www.kkkliao.cn/?id=645 转载需授权!
版权声明:本文由廖万里的博客发布,如需转载请注明出处。



手机流量卡
免费领卡
号卡合伙人
产品服务
关于本站
