Stable Diffusion
Stable Diffusion

开源AI图像生成模型,可本地部署,生态丰富

简介

Stable Diffusion 是由 Stability AI 开发并开源的 AI 图像生成模型,于 2022 年 8 月首次发布。作为目前最受欢迎的开源图像生成模型,Stable Diffusion 完全免费、可本地部署、且拥有丰富的社区生态。用户可以在自己的电脑上运行 Stable Diffusion,也可以通过各种在线平台使用。基于其开源特性,衍生出了数以千计的微调模型和扩展工具。

开源项目:GitHub 仓库

主要功能

  • 文生图:通过文字描述生成对应的图像
  • 图生图:基于参考图像生成风格相似的新图像
  • 图像修复:局部编辑和修复图像中的特定区域
  • 图像扩展:扩展图像边界,生成更大的画幅
  • ControlNet:精确控制生成图像的姿势、构图、深度等
  • Lora 微调:通过少量数据训练个性化风格和角色
  • 视频生成:基于图像生成动态视频内容
  • 模型微调:训练自定义的 LoRA、Dreambooth 等模型

适用场景

Stable Diffusion 适用于多种创意场景:

  • 艺术创作:探索和创作各种风格的数字艺术作品
  • 游戏美术:生成游戏素材、角色设计、场景概念图
  • 电商设计:制作产品图、背景图、广告素材
  • 个人定制:训练专属的 LoRA 模型生成个性化内容
  • 教育培训:创建教学插图和可视化材料
  • 批量生产:大规模生成不同风格的图像素材

同类工具对比

工具名称 公司/厂商 特色 适合人群
Stable Diffusion Stability AI 开源免费、本地部署、生态丰富 开发者、技术用户
Midjourney Midjourney Inc. 艺术风格强、Discord 生态 设计师、艺术家
DALL-E 3 OpenAI ChatGPT 集成、使用便捷 ChatGPT 用户
LiblibAI LiblibAI 中文界面、本土模型、在线使用 国内用户

官网与入口

官网:https://stability.ai

GitHub:https://github.com/Stability-AI/StableDiffusion

使用方式:可通过在线平台(如 Stability AI API、LiblibAI、哩布哩布等)使用,也可下载模型在本地部署运行。推荐使用 ComfyUI 或 Automatic1111 等可视化界面进行本地部署。

安装与使用

前置要求

  • NVIDIA 显卡(推荐 8GB 以上显存)
  • Windows 10/11 或 Linux 系统
  • Python 3.10+ 环境
  • 至少 20GB 硬盘空间

使用官方 API(无需本地部署)

# 安装 Stability AI SDK
pip install stability-sdk

# 基础使用示例
from stability_sdk import api

stability = api.Context(host="grpc.stability.ai:443", api_key="YOUR_API_KEY")

# 文生图
answers = stability.generate(
    prompt="a beautiful landscape with mountains and lakes, photorealistic",
    width=1024,
    height=768,
    steps=30
)

# 保存图像
for resp in answers:
    for image in resp.images:
        image.save("generated_image.png")

本地部署(Automatic1111 WebUI)

# 克隆仓库
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
cd stable-diffusion-webui

# 运行 WebUI(自动下载依赖和模型)
# Windows:
./webui-user.bat

# Linux/Mac:
./webui-user.sh

启动后访问 http://127.0.0.1:7860 即可在浏览器中使用。

使用 ComfyUI(高级工作流)

# 克隆 ComfyUI
git clone https://github.com/comfyanonymous/ComfyUI.git
cd ComfyUI

# 安装依赖
pip install -r requirements.txt

# 运行
python main.py

ComfyUI 支持节点式工作流,适合进阶用户创建复杂图像生成流程。

价格与版本

开源免费版
完全免费,可本地部署,无使用限制
Stability API
按次计费,约 $0.01-0.05/图起
Stability Cloud
托管服务,按用量计费

本地部署完全免费,但需要自备硬件资源。API 服务需付费使用

使用技巧

💡

学习提示词语法

掌握提示词结构:主题 + 风格 + 细节 + 负面提示词,使用逗号分隔。

选择合适的模型

不同模型有不同风格,如 SDXL 适合写实,DreamShaper 适合艺术创作。

🎯

使用 LoRA 微调

训练专属 LoRA 模型可实现角色一致性或特定风格。

🔄

善用 ControlNet

通过 ControlNet 控制姿势、构图、线稿,提高生成可控性。

📝

优化采样器

DPM++ 2M Karras 适合精细图像,Euler a 适合快速测试。

🔒

设置负面提示词

使用负面提示词排除不需要的元素,如 low quality, bad anatomy 等。

常见问题

使用如何开始使用 Stable Diffusion?
可以直接使用在线平台(如 LiblibAI、哩布哩布),或下载 WebUI 在本地部署运行。
硬件需要什么配置的电脑?
推荐 NVIDIA 显卡,8GB 显存可运行基本功能,12GB 以上体验更佳。集成显卡不支持 CUDA。
模型在哪里下载模型?
可以在 Hugging Face、CivitAI、LiblibAI 等平台下载模型。SD 1.5 和 SDXL 模型最为常用。
版权生成的图像可以商用吗?
Stable Diffusion 本身是开源的,但具体商用需遵守所用模型和微调模型的许可证条款。
质量如何提高生成质量?
使用高质量模型、调整采样步数、添加详细的正面和负面提示词、使用高清修复等方法。
中文支持中文提示词吗?
需要使用翻译工具将中文转换为英文,或使用支持中文的微调模型。

小结

Stable Diffusion 作为最具影响力的开源 AI 图像生成模型,为创作者提供了免费、灵活、可定制的图像生成解决方案。其丰富的社区生态让用户可以根据需求选择不同的模型和工作流。虽然学习曲线较陡,但一旦掌握,就能释放强大的创作能力。对于有技术基础且需要大量图像生成的用户,Stable Diffusion 是最佳选择。

行动号召:从在线平台开始体验 Stable Diffusion,逐步深入本地部署和高级功能。

Relevant Sites