Stable Diffusion安装与使用教程
零基础入门AI绘图,掌握强大的图像生成技能
2026年,AI绘图已经成为内容创作者的必备技能。Stable Diffusion作为开源AI绘画模型的代表,凭借强大的生成能力和高度可定制性,成为众多设计师、艺术家和技术爱好者的首选工具。本文将带你从零开始,掌握Stable Diffusion的完整安装流程和核心使用技巧。

Stable Diffusion WebUI操作界面:功能清晰,易于上手
什么是Stable Diffusion
Stable Diffusion是由Stability AI开发的文本到图像生成模型,基于扩散(Diffusion)技术,能够通过自然语言描述生成高质量图像。与Midjourney、DALL-E等商业AI绘画工具相比,Stable Diffusion的最大优势在于:
- 完全开源免费:无需付费订阅,功能无限制
- 本地部署运行:数据隐私安全,无需上传到云端
- 高度可定制:支持自定义模型、插件和参数调优
- 社区生态丰富:海量第三方模型和插件资源
- 硬件要求相对较低:支持消费级显卡运行
Stable Diffusion安装教程
系统硬件要求
在开始安装之前,先确认你的电脑是否满足最低配置要求:
推荐配置
- 操作系统:Windows 10/11 64位、macOS 12+、Linux(Ubuntu 20.04+)
- 显卡:NVIDIA RTX 3060(8GB显存)或更高
- 内存:16GB RAM(推荐32GB)
- 存储空间:至少50GB可用空间(用于模型文件和生成图片)
- Python:3.10-3.11版本
最低配置
- 显卡:NVIDIA GTX 1660(6GB显存)或同等性能显卡
- 内存:8GB RAM
- 存储空间:30GB可用空间
注意:AMD显卡用户需要使用ROCm版本,性能和稳定性可能略低于NVIDIA显卡。
方法一:使用WebUI一键安装包(推荐新手)
对于大多数用户,使用WebUI(Web User Interface)是最简单快捷的安装方式。以下以Windows系统为例:
步骤1:下载WebUI安装包
- 访问Stable Diffusion WebUI官方GitHub仓库
- 下载最新的一键安装包(通常命名为
stable-diffusion-webui-release.zip) - 解压到非中文路径(如
D:\stable-diffusion-webui)
步骤2:下载模型文件
Stable Diffusion需要下载基础模型才能运行。推荐使用以下模型:
- SDXL 1.0:最新版本,生成质量更高(推荐)
- SD 1.5:社区生态成熟,资源丰富
- SD 2.1:介于两者之间的平衡版本
下载步骤:
- 访问Hugging Face模型库
- 搜索并下载SDXL 1.0基础模型(文件大小约6-7GB)
- 将下载的模型文件放置到
stable-diffusion-webui\models\Stable-diffusion目录下
步骤3:启动WebUI
- 双击运行
webui-user.bat文件(Windows) - 等待自动下载依赖包(首次启动需要10-30分钟,取决于网络速度)
- 看到类似
Running on local URL: http://127.0.0.1:7860的提示时,说明启动成功 - 打开浏览器访问
http://127.0.0.1:7860即可看到WebUI界面

Stable Diffusion一键安装教程,让安装变得简单
方法二:手动安装(适合进阶用户)
如果你需要更灵活的配置或使用Linux/macOS系统,可以手动安装:
步骤1:安装Python和Git
Windows:
- 下载Python 3.10.11并安装(勾选”Add Python to PATH”)
- 下载Git并安装
macOS(使用Homebrew):
brew install python@3.10 git
Linux(Ubuntu/Debian):
sudo apt update
sudo apt install python3.10 git
步骤2:克隆WebUI仓库
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
cd stable-diffusion-webui
步骤3:创建虚拟环境并安装依赖
Windows:
python -m venv venv
venv\Scripts\activate
pip install -r requirements.txt
macOS/Linux:
python3 -m venv venv
source venv/bin/activate
pip install -r requirements.txt
步骤4:下载模型文件
参考方法一中的模型下载步骤,将模型文件放置到正确的目录。
步骤5:启动WebUI
python webui.py
启动成功后,在浏览器中访问http://127.0.0.1:7860即可。
Stable Diffusion使用教程
基础操作界面介绍
打开WebUI后,你会看到以下几个主要区域:
- 提示词输入框(Prompt):用于输入正向提示词,描述你想要生成的图像内容
- 反向提示词输入框(Negative Prompt):用于输入不希望出现的内容
- 参数设置区:调整生成参数,如图像尺寸、步数、采样方法等
- 生成按钮:点击后开始生成图像
- 输出区域:显示生成的图像结果
Stable Diffusion提示词编写技巧
提示词(Prompt)是控制AI生成图像的核心,编写高质量提示词是掌握Stable Diffusion的关键。
正向提示词结构
一个完整的提示词通常包含以下几个部分:
[主体描述] + [风格/艺术家] + [细节描述] + [质量标签] + [技术参数]
示例:
beautiful young woman, portrait, digital painting, art by Greg Rutkowski,
detailed eyes, soft lighting, cinematic composition, 8k, masterpiece,
best quality, highly detailed
常用提示词分类
主体描述:
- 人物:
woman, man, girl, boy, elderly person, fantasy character - 风景:
mountain, ocean, forest, cityscape, sunset, night sky - 物体:
flower, car, building, animal, food, technology
风格/艺术家:
- 艺术风格:
digital painting, oil painting, watercolor, sketch, photograph, 3D render - 艺术家参考:
art by Greg Rutkowski, art by Alphonse Mucha, style of Studio Ghibli
质量标签:
masterpiece, best quality, high quality, ultra detailed, sharp focus8k, 4k, HDR, professional, award winning
反向提示词使用
反向提示词用于排除不希望出现的内容,常用反向提示词包括:
low quality, worst quality, bad anatomy, bad hands, missing fingers,
extra digit, fewer digits, cropped, worst quality, low quality,
normal quality, jpeg artifacts, signature, watermark, username, blurry
参数设置详解
掌握参数调优能够显著提升生成效果:
1. 采样方法(Sampler)
常用的采样方法及其特点:
- DPM++ 2M Karras:推荐使用,速度快且质量稳定
- Euler a:生成速度快,适合快速预览
- DDIM:质量好,但生成速度较慢
- UniPC:新兴方法,平衡速度和质量
建议:新手使用DPM++ 2M Karras,熟练后可尝试其他方法。
2. 采样步数(Steps)
步数影响生成质量和速度:
- 20-30步:快速预览,质量一般
- 30-50步:平衡质量和速度,推荐范围
- 50-100步:最高质量,但速度慢
建议:设置为30-40步,在质量和效率之间取得平衡。
3. CFG Scale(提示词相关性)
数值范围通常在1-30之间:
- 7-12:推荐范围,既保留提示词内容又有一定创意
- 1-6:AI自由发挥,创意性强但可能偏离提示词
- 13-30:严格遵循提示词,但可能缺乏自然感
建议:设置为7-9,大多数情况下效果最佳。
4. 图像尺寸(Size)
- 512×512:标准尺寸,生成速度快
- 768×768:较高清晰度,推荐用于肖像
- 1024×1024:高清晰度,但需要更多显存
- 自定义比例:支持纵向或横向构图
建议:从512×512开始,显存充足时可尝试更大尺寸。
5. 生成数量(Batch Size/Count)
- Batch Size:同时生成的图像数量(受显存限制)
- Batch Count:批量生成的次数
建议:Batch Size设为1-2,Batch Count设为4-8,生成多张图片供选择。
Stable Diffusion实战案例
案例1:生成写实人像
提示词:
professional portrait photography, beautiful asian woman, 25 years old,
natural makeup, studio lighting, soft focus background, 85mm lens,
sharp eyes, detailed skin texture, 8k, masterpiece, best quality
反向提示词:
cartoon, anime, illustration, painting, low quality, blurry, deformed
参数设置:
- 采样方法:DPM++ 2M Karras
- 采样步数:40
- CFG Scale:7
- 尺寸:512×768(纵向)

Stable Diffusion生成的写实人像示例,细节丰富,质感真实
案例2:生成风景插画
提示词:
beautiful landscape painting, mountain range at sunset, golden light,
reflection in lake, digital art, art by Studio Ghibli, vibrant colors,
dreamy atmosphere, highly detailed, masterpiece
反向提示词:
photograph, realistic, 3d render, low quality, blurry, watermark
参数设置:
- 采样方法:DPM++ 2M Karras
- 采样步数:35
- CFG Scale:8
- 尺寸:768×512(横向)

Stable Diffusion生成的风景示例,色彩丰富,氛围浓郁
案例3:生成产品图
提示词:
luxury perfume bottle, elegant design, crystal glass, golden liquid,
soft studio lighting, white marble background, product photography,
high resolution, commercial photography, 8k
反向提示词:
cartoon, illustration, dark lighting, low quality, blurry
参数设置:
- 采样方法:Euler a
- 采样步数:30
- CFG Scale:7.5
- 尺寸:512×512
Stable Diffusion进阶功能
模型切换与使用
除了基础模型,Stable Diffusion还有丰富的第三方模型:
常用模型类型:
- 写实模型:如Realistic Vision、Photon,擅长生成写实人像和场景
- 动漫模型:如Anything V5、CounterfeitV3,专精二次元风格
- 艺术风格模型:如Deliberate、DreamShaper,多样化艺术风格
- 专用模型:如SDXL Turbo、SDXL Lightning,快速生成
模型下载与使用:
- 访问Civitai模型库(https://civitai.com/)
- 搜索并下载感兴趣的模型
- 将模型文件放到
models\Stable-diffusion目录 - 在WebUI左上角的模型下拉菜单中选择使用
LoRA微调模型使用
LoRA(Low-Rank Adaptation)是一种轻量级的模型微调方法,可以让基础模型学习特定风格或主题:
LoRA使用步骤:
- 下载LoRA模型文件(通常较小,几MB到几百MB)
- 将文件放到
models\Lora目录 - 在提示词中添加
<lora:模型名称:权重> - 权重范围通常在0.1-1.0之间
示例:
beautiful woman, <lora:anime_style:0.8>, studio lighting, 8k
图生图(Img2Img)功能
图生图功能可以根据现有图像生成新图像,适合修改照片或转换风格:
使用步骤:
- 点击”img2img”标签页
- 上传参考图片
- 设置”重绘幅度”(Denoising Strength):
- 0.1-0.3:微调原图
- 0.4-0.6:中等修改
- 0.7-1.0:大幅重构
- 输入提示词并生成
应用场景:
- 照片风格化
- 线稿上色
- 图像修复和增强
- 构图参考生成
局部重绘(Inpaint)功能
局部重绘允许你只修改图像的特定区域:
使用步骤:
- 在”img2img”页面点击”Inpaint”标签
- 上传图片
- 使用画笔工具选择要修改的区域
- 输入修改后的描述
- 生成新图像
应用场景:
- 换脸或修改面部特征
- 更换服装或背景
- 修复图像缺陷
- 添加或删除元素
Stable Diffusion优化技巧
提升生成速度
优化方法
- 使用更快的采样方法:如DPM++ 2M Karras
- 降低采样步数:30步通常足够
- 使用更小的图像尺寸:先在512×512预览,满意后放大
- 启用xFormers:在启动参数中添加
--xformers - 使用半精度浮点:WebUI默认已启用
提升生成质量
质量提升技巧
- 使用高质量提示词:参考优秀提示词模板
- 调整CFG Scale:找到最佳平衡点
- 使用高分辨率修复:在Extras页面放大图像
- 尝试不同模型:不同模型擅长不同风格
- 多生成几版:批量生成后选择最好的
显存不足解决方案
如果你的显卡显存较小(<6GB),可以尝试以下方法:
显存优化方案
- 降低图像尺寸:使用512×512或更小
- 减少Batch Size:设置为1
- 启用低显存模式:启动参数添加
--lowvram - 使用优化版本:如SDXL Turbo或Lightning模型
- 升级显卡:最根本的解决方案
Stable Diffusion常见问题解决
1. 启动失败或报错
问题:运行webui-user.bat时出现错误提示
解决方案:
- 确认Python版本是否正确(3.10-3.11)
- 检查网络连接,首次启动需要下载依赖
- 尝试以管理员身份运行
- 查看错误日志,根据具体错误信息搜索解决方案
2. 生成图像质量差
问题:生成的图像模糊、变形或不自然
解决方案:
- 检查提示词是否清晰具体
- 调整CFG Scale到合适范围(7-9)
- 增加采样步数到40-50
- 尝试不同的采样方法
- 换用更合适的模型
3. 生成速度太慢
问题:一张图片需要几分钟才能生成
解决方案:
- 使用更快的采样方法(DPM++ 2M Karras)
- 降低采样步数到30左右
- 减小图像尺寸
- 检查显卡驱动是否更新到最新版本
- 启用xFormers加速
4. 显存不足错误
问题:提示CUDA out of memory错误
解决方案:
- 减小图像尺寸
- 降低Batch Size
- 启用低显存模式
- 关闭其他占用显存的程序
- 考虑升级显卡
5. 模型加载失败
问题:无法加载下载的模型文件
解决方案:
- 确认模型文件格式正确(.safetensors或.ckpt)
- 检查文件是否完整下载
- 确保模型文件放在正确的目录
- 尝试重新下载模型文件
Stable Diffusion学习资源
官方资源
- Stability AI官网:https://stability.ai/
- WebUI GitHub仓库:https://github.com/AUTOMATIC1111/stable-diffusion-webui
- Hugging Face模型库:https://huggingface.co/
社区资源
- Civitai模型库:https://civitai.com/(丰富的第三方模型)
- Reddit社区:r/StableDiffusion(讨论和分享)
- Discord社区:Stable Diffusion官方Discord
- B站教程:搜索”Stable Diffusion教程“获取中文视频教程
提示词资源
- Civitai提示词库:查看优秀作品的提示词
- Lexica.art:提示词搜索引擎
- PromptHero:提示词和图像示例
- OpenArt:AI艺术提示词库
总结
Stable Diffusion作为开源AI绘画的旗舰工具,为创作者提供了强大的图像生成能力。通过本文的教程,你已经掌握了:
- Stable Diffusion的安装方法:从一键安装包到手动部署
- 提示词编写技巧:如何用文字控制AI生成
- 参数调优方法:采样方法、步数、CFG等关键参数
- 进阶功能使用:图生图、局部重绘、LoRA等
- 常见问题解决:应对各种技术难题
学习建议
- 多练习:提示词编写需要大量实践才能熟练
- 多尝试:不同模型、参数组合会产生不同效果
- 多学习:关注社区动态,学习他人的技巧和经验
- 多创作:将Stable Diffusion应用到实际项目中
未来展望
随着AI技术的快速发展,Stable Diffusion也在不断进化。未来的版本可能会带来:
- 更快的生成速度
- 更高的图像质量
- 更智能的提示词理解
- 更多的创意控制选项
- 更好的硬件兼容性
现在就开始你的AI绘画之旅吧!无论你是专业设计师、内容创作者,还是技术爱好者,Stable Diffusion都能为你打开全新的创作可能性。记住,AI工具的核心价值在于辅助和增强人类的创造力,而不是替代。善用Stable Diffusion,让你的创意无限延伸。
*本文发布于2026年4月,基于Stable Diffusion WebUI最新版本编写。软件功能持续更新,请以官方最新信息为准。
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...



