Stable Diffusion WebUI
Stable Diffusion WebUI

最流行的SD Web界面,功能强大

简介

Stable Diffusion WebUI 是由 AUTOMATIC1111 开发的最流行的 Stable Diffusion 图形界面工具。它提供了一个功能完整的 Web 界面,让用户可以通过浏览器轻松使用 Stable Diffusion 进行图像生成。该项目完全开源免费,支持高度自定义和扩展,是 AI 图像生成领域使用最广泛的工具之一。

开源项目:GitHub 仓库

主要功能

  • 文生图 (Text-to-Image):根据文本提示词生成高质量图像,支持多种采样器选择
  • 图生图 (Image-to-Image):基于参考图像进行二次创作,可调整重绘幅度
  • 图像修复 (Inpainting):智能修复和替换图像中指定区域的内容
  • 图像放大 (Upscale):使用多种算法放大图像并增强细节
  • ControlNet 支持:精确控制图像生成姿势、构图和边缘
  • LoRA 模型管理:轻松加载和管理多种微调模型
  • 负向提示词:排除不需要的元素,提升生成质量
  • 批量处理:支持批量生成和批量处理图像

适用场景

Stable Diffusion WebUI 适用于广泛的用户群体和使用场景:

  • 数字艺术家和设计师:快速生成概念图、插画和设计素材
  • 游戏和影视从业者:创建角色设计、场景概念和道具设计
  • 电商从业者:生成产品展示图和广告素材
  • 摄影爱好者:艺术化处理照片,添加创意效果
  • AI 爱好者:学习和研究扩散模型的最佳实践平台
  • 开发者和研究者:进行模型训练、测试和扩展开发

安装与使用

前置要求

  • 操作系统:Windows 10/11、Linux 或 macOS
  • 显卡:NVIDIA GPU(推荐 8GB 以上显存),或使用 CPU(速度较慢)
  • Python 3.10.x 环境
  • Git 版本控制工具
  • 至少 10GB 硬盘空间(模型文件较大)

Windows 一键安装

# 克隆仓库
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
cd stable-diffusion-webui

# 运行启动脚本(自动安装依赖)
webui-user.bat

Linux/macOS 安装

# 克隆仓库
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
cd stable-diffusion-webui

# 运行启动脚本
./webui.sh

使用 Docker(推荐有经验用户)

# 使用秋叶aaaki的Docker镜像
docker run -d --name sd-webui -p 7860:7860 
  -v ./data:/data 
  -e CLI_ARGS="--xformers --api" 
  yeayuei/sd-webui-docker:latest

启动后访问 http://127.0.0.1:7860 即可使用 Web 界面。

同类工具对比

工具名称 类型 特色 适合人群
Stable Diffusion WebUI 开源/本地 功能最全、扩展丰富、社区活跃 追求定制化的进阶用户
ComfyUI 开源/本地 节点式工作流、灵活性高 需要复杂流程的用户
Fooocus 开源/本地 简化界面、类 Midjourney 体验 追求简洁的新手用户
Midjourney 闭源/云端 出图质量高、上手简单 不愿配置环境的用户
DALL-E 3 闭源/云端 与 ChatGPT 集成、理解力强 OpenAI 生态用户

官网与入口

项目主页:https://github.com/AUTOMATIC1111/stable-diffusion-webui

在线演示:HuggingFace Spaces(无需本地部署)

模型下载:HuggingFace StabilityAICivitAI

扩展插件:官方 Wiki扩展列表

价格与版本

免费版
完全开源免费,包含所有核心功能
硬件成本
需自备显卡或云服务器(约¥2000+)

软件本身完全免费,但需要一定的硬件投入。如无本地硬件,可使用 Google Colab 或各类云 GPU 服务(按需付费)

使用技巧

💡

提示词优化

使用具体的描述词,包含风格、艺术家、光照等元素,用逗号分隔,可显著提升生成质量。

采样器选择

DPM++ 2M Karras 适合通用场景,Euler a 出图速度快,DDIM 适合精细控制。

🎯

分辨率设置

推荐使用 512x512 或 768x768 基础分辨率,放大时使用附加功能模块以获得最佳效果。

🔄

模型切换

在 Checkpoint Loader 中选择不同的大模型,在 LoRA 中加载风格化模型进行组合。

📝

反向提示词

使用通用的反向提示词如:lowres, bad anatomy, bad hands, text, error 等提升出图质量。

🔒

本地部署安全

默认仅本地访问,如需外网访问建议使用 VPN 或内网穿透工具,注意账户信息安全。

常见问题

安装显存不够怎么办?
4GB 显存可运行基础功能但受限;8GB 以上体验较好。可使用 --lowvram 参数优化,或考虑使用云端 GPU 服务。
使用如何下载和使用模型?
从 CivitAI、HuggingFace 下载 .safetensors 或 .ckpt 模型文件,放入 models/Stable-diffusion 目录即可在 WebUI 中选择使用。
扩展如何安装扩展插件?
可通过「Extensions」标签页从 URL 安装,或将插件克隆到 extensions 目录。部分插件需在设置中启用。
功能如何生成高清大图?
先用低分辨率生成满意构图,再使用「附加功能」标签页的放大功能(如 ESRGAN、4x-UltraSharp)进行高清放大。
性能生成速度慢怎么优化?
安装 xFormers 库、使用 TensorRT 加速、降低批处理数量、选择更快的采样器如 Euler a 或 DPM++ 2M。
模型LoRA 和 Dreambooth 有什么区别?
LoRA 是轻量级模型(几十MB),加载快;Dreambooth 是完整微调,文件大但效果更深入,适合特定角色或风格。
问题出现错误怎么办?
查看控制台错误信息,更新 WebUI 和扩展,检查模型兼容性。常见问题可在项目的 Issues 中搜索解决方案。
其他如何导出生成的图片?
图片会自动保存到 outputs 目录,也可在 WebUI 中右键点击图片选择保存,或批量导出。

小结

Stable Diffusion WebUI 作为当前最流行的开源 AI 图像生成界面,凭借其强大的功能、丰富的扩展生态和活跃的社区支持,已成为数字创作者的必备工具。虽然需要一定的技术基础来配置和优化,但它提供了无与伦比的定制自由度和控制能力。

建议对本地部署有基本了解的用户尝试使用,从基础功能开始逐步探索更多可能性。对于追求便捷的用户,也可先在在线平台体验后再决定是否本地部署。

Relevant Sites