当前位置:首页 > AI > 正文内容

Stable Diffusion WebUI 完整安装教程 - 本地 AI 绘图从零开始

廖万里12小时前AI1

# Stable Diffusion WebUI 安装与使用教程

前言

Stable Diffusion 是目前最流行的开源 AI 绘画模型之一,它能够根据文字描述生成高质量的图像。而 Stable Diffusion WebUI(简称 SD WebUI)是最受欢迎的图形化界面工具,让用户无需编写代码就能轻松使用 Stable Diffusion 进行 AI 创作。

本教程将从零开始,手把手教你安装 Stable Diffusion WebUI,并详细介绍各项核心功能的使用方法。无论你是设计师、艺术家,还是对 AI 绘画感兴趣的爱好者,都能通过本教程快速上手。

---

第一章:环境准备

1.1 硬件要求

在开始安装之前,请确保你的电脑满足以下硬件要求:

推荐配置:

  • 显卡:NVIDIA RTX 3060 或更高(显存 8GB 以上)
  • 内存:16GB 以上
  • 硬盘:至少 50GB 可用空间(SSD 优先)
  • 操作系统:Windows 10/11 或 Linux
最低配置:
  • 显卡:NVIDIA GTX 1060 6GB
  • 内存:8GB
  • 硬盘:30GB 可用空间
⚠️ 注意:AMD 显卡和 Intel 显卡也可以运行,但配置相对复杂,本教程以 NVIDIA 显卡为主。

1.2 软件准备

安装 SD WebUI 之前,需要先准备以下软件:

1. Python 3.10.x

Stable Diffusion WebUI 需要特定版本的 Python。推荐使用 Python 3.10.6 或 3.10.9。

# Windows 用户可以从官网下载安装
# https://www.python.org/downloads/release/python-3109/

# 安装时务必勾选 "Add Python to PATH"

# 验证安装 python --version # 应显示:Python 3.10.x

2. Git

Git 用于克隆 Stable Diffusion WebUI 的代码仓库。

# Windows 用户可从 https://git-scm.com/download/win 下载
# 或使用 winget 安装
winget install Git.Git

# 验证安装 git --version

3. NVIDIA 驱动

确保显卡驱动为最新版本。可访问 NVIDIA 官网下载。

---

第二章:安装 Stable Diffusion WebUI

2.1 克隆项目

打开命令行终端,执行以下命令克隆项目:

# 进入你想要安装的目录
cd D:\AI_Tools

# 克隆 Stable Diffusion WebUI 仓库 git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git

# 进入项目目录 cd stable-diffusion-webui

如果 GitHub 访问速度慢,可以使用国内镜像:

git clone https://ghproxy.com/https://github.com/AUTOMATIC1111/stable-diffusion-webui.git

2.2 首次启动

首次启动时,SD WebUI 会自动下载并安装所有依赖,这可能需要较长时间(取决于网络速度)。

Windows 用户:

双击运行 webui-user.bat 文件。

Linux/Mac 用户:

./webui.sh

首次启动命令(建议添加参数以获得更好体验):

# Windows
webui-user.bat --xformers --listen --enable-insecure-extension-access

# Linux/Mac ./webui.sh --xformers --listen --enable-insecure-extension-access

参数说明:

  • --xformers:启用 xformers 加速,显著提升生成速度
  • --listen:允许局域网访问
  • --enable-insecure-extension-access:允许安装扩展

2.3 下载模型

Stable Diffusion 的核心是模型文件(.safetensors 或 .ckpt)。首次安装后,需要下载模型才能生成图像。

推荐模型下载地址:

1. Civitai(最流行的模型分享网站) - 网址:https://civitai.com - 推荐模型:Realistic Vision、ChilloutMix(写实风格)、Anything V5(动漫风格)

2. Hugging Face - 网址:https://huggingface.co/models - 官方模型:stabilityai/stable-diffusion-xl-base-1.0

模型安装位置:

将下载的模型文件放入以下目录:

stable-diffusion-webui/
└── models/
    └── Stable-diffusion/
        ├── model1.safetensors
        ├── model2.safetensors
        └── ...

启动 WebUI 后,在左上角的模型下拉菜单中选择你的模型即可使用。

---

第三章:文生图(Text to Image)

3.1 界面介绍

启动成功后,浏览器会自动打开 http://127.0.0.1:7860。主要界面包括:

  • 模型选择:左上角下拉菜单
  • 提示词(Prompt):描述你想要生成的图像内容
  • 反向提示词(Negative Prompt):描述你不希望出现的内容
  • 参数设置:采样方法、步数、尺寸等
  • 生成按钮:点击开始生成

3.2 提示词编写技巧

基本格式:

正向提示词:主体描述, 风格描述, 质量词汇, 灯光效果, 其他细节

反向提示词:低质量元素, 不想要的内容, 常见问题词汇

实战示例:

正向提示词:
a beautiful young woman, long black hair, wearing white dress, 
standing in a flower garden, soft sunlight, detailed face, 
masterpiece, best quality, ultra realistic, 8k uhd

反向提示词: lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username

3.3 核心参数详解

1. 采样方法(Sampler)

不同的采样方法会影响生成质量和速度:

  • Euler a:速度快,质量不错,适合快速预览
  • DPM++ 2M Karras:推荐用于写实风格,质量与速度平衡
  • DPM++ SDE Karras:质量最高,但速度较慢
2. 采样步数(Steps)

  • 推荐 20-30 步
  • 步数过低会导致图像模糊
  • 步数过高会浪费计算资源,提升有限
3. 图像尺寸

  • 推荐使用 512×512 或 512×768(基于 SD 1.5 模型)
  • SDXL 模型推荐 1024×1024
  • 尺寸过大会导致画面元素重复
4. CFG Scale(提示词相关性)

  • 推荐值:7-12
  • 值越高,图像越严格遵循提示词
  • 值过低,图像会更自由发挥
5. 随机种子(Seed)

  • 固定种子可重现相同图像
  • 设置为 -1 表示每次随机

3.4 实战案例

案例:生成一张动漫风格的猫娘

提示词:
anime girl, cat ears, fluffy tail, cute face, big eyes, 
pink hair, wearing school uniform, cherry blossoms background, 
soft lighting, detailed illustration, high quality, masterpiece

反向提示词: ugly, low quality, worst quality, bad anatomy, bad hands, text, watermark, extra limbs

参数设置: 采样方法:DPM++ 2M Karras 步数:25 尺寸:512×768 CFG Scale:8

---

第四章:图生图(Image to Image)

4.1 图生图功能介绍

图生图功能允许用户上传一张参考图,然后在保留原图基本结构的基础上进行修改或风格转换。

4.2 重绘强度(Denoising Strength)

这是图生图最重要的参数:

  • 0.0-0.3:轻微修改,适合细节调整
  • 0.4-0.6:中等修改,保留基本结构
  • 0.7-1.0:大幅修改,几乎重新生成

4.3 实战案例:照片转油画风格

步骤:
1. 切换到 img2img 标签页
2. 上传一张照片
3. 设置重绘尺寸
4. 输入提示词:
   oil painting style, thick brush strokes, impressionist, 
   vibrant colors, artistic, masterpiece

参数设置: 重绘强度:0.6 采样方法:Euler a 步数:30

4.4 局部重绘(Inpaint)

局部重绘允许只修改图像的特定区域:

1. 上传图片后,使用画笔涂抹需要修改的区域 2. 输入新的提示词描述你想要的修改 3. 调整重绘强度(建议 0.7-0.9)

案例:给人物换装

原图片:穿白衬衫的人物
涂抹区域:衣服部分
提示词:red dress, elegant, silk fabric
重绘强度:0.75

---

第五章:高级功能

5.1 ControlNet 使用

ControlNet 是强大的控制插件,可以让 AI 更精确地按照你的要求生成图像。

安装方法:

1. 进入 Extensions → Available 2. 搜索 "ControlNet" 3. 点击 Install 4. 重启 WebUI

常用 ControlNet 模型:

  • Canny:边缘检测,保留轮廓
  • OpenPose:姿态识别,控制人物动作
  • Depth:深度估计,保留空间关系
  • Tile:放大图像细节
使用示例:

# 姿态控制流程
1. 上传参考人物图片
2. 启用 ControlNet
3. 选择 OpenPose 预处理器和模型
4. 输入新的人物描述
5. 生成保持相同姿态的新角色

5.2 LoRA 使用

LoRA 是轻量级的模型微调文件,可以在不改变大模型的情况下添加特定风格或角色。

安装位置:

stable-diffusion-webui/
└── models/
    └── Lora/
        └── your-lora.safetensors

使用方法:

在提示词中添加 LoRA 调用:

提示词:
a beautiful girl, masterpiece, best quality
<lora:your-lora:0.8>

参数说明:

  • your-lora:LoRA 文件名
  • 0.8:权重(0-1,推荐 0.5-0.9)

5.3 Embeddings(文本反转)

Embeddings 是一种将特定风格或角色"训练"成关键词的技术。

使用方法:

将 embedding 文件放入 embeddings/ 目录,然后在提示词中调用:

提示词:
portrait of a woman, embedding_name, masterpiece

---

第六章:常见问题与解决方案

6.1 CUDA Out of Memory

问题描述: 显存不足导致生成失败

解决方案:

# 启动时添加参数
webui-user.bat --medvram

# 或更低显存模式 webui-user.bat --lowvram

6.2 生成速度慢

优化方法:

1. 启用 xformers 加速 2. 降低图像尺寸 3. 减少采样步数 4. 使用更高效的采样器(如 DPM++ 2M)

6.3 黑色或绿色图像

原因: 模型文件损坏或不兼容

解决方案:

  • 重新下载模型
  • 确保模型格式正确(.safetensors 优先)
  • 检查模型是否与 WebUI 版本兼容

6.4 人物脸部崩坏

解决方案:

反向提示词添加:
bad face, bad eyes, deformed face, ugly face, asymmetrical face

或使用 ADetailer 扩展进行脸部修复

---

第七章:进阶技巧

7.1 提示词权重调整

使用括号和数字调整权重:

(highlighted text)     # 权重 × 1.1
(highlighted text:1.3) # 权重 × 1.3
[lowered text]         # 权重 × 0.9
[lowered text:0.8]     # 权重 × 0.8

7.2 步骤融合(Steps Blending)

在同一张图中使用不同风格:

提示词:
[cat:dog:0.5]

说明:

  • 前 50% 步数生成猫的特征
  • 后 50% 步数生成狗的特征
  • 产生融合效果

7.3 批量生成

使用脚本进行批量生成:

# 使用 X/Y/Z Plot 扩展
# 可以自动测试不同参数组合
# 例如:测试不同 CFG 值的效果

1. 进入 Script → X/Y/Z Plot 2. 选择 X 轴参数为 CFG Scale 3. 输入值:5,7,9,11,13,15 4. 生成参数对比图

---

总结

通过本教程,你已经掌握了 Stable Diffusion WebUI 的安装与核心使用方法。从基础的文生图、图生图,到高级的 ControlNet 和 LoRA,这些技能将帮助你创作出令人惊艳的 AI 艺术作品。

AI 绘画是一个需要不断实践的领域,建议多尝试不同的提示词组合、参数设置和模型风格。记住,好的提示词是成功的一半,多参考优秀作品的提示词,逐步建立自己的提示词库。

祝你在 AI 绘画的世界中创作愉快!

本文链接:https://www.kkkliao.cn/?id=645 转载需授权!

分享到:

版权声明:本文由廖万里的博客发布,如需转载请注明出处。


发表评论

访客

看不清,换一张

◎欢迎参与讨论,请在这里发表您的看法和观点。