AI生图格局大震!Stable Diffusion详细介绍!文生图的稳定之选
Stable Diffusion(SD模型),由Stability AI与LAION等机构合作研发,是一款功能强大的生成式模型,拥有约10亿(1B)参数。其应用广泛,包括但不限于文生图(txt2img)、图生图(img2img)及图像修复(inpainting)等功能。
“Stable Diffusion(SD模型),由Stability AI与LAION等机构联手打造,是一款拥有约10亿参数的强大生成式模型。其功能多样,涵盖文生图(txt2img)、图生图(img2img)以及图像修复(inpainting)等,为创意领域带来无限可能。”
论文地址:https://arxiv.org/pdf/2112.10752
github地址:https://github.com/CompVis/stable-diffusion
Stable Diffusion网络架构
#Stable Diffusion主要工作流:
提示词输入与文本编码:
文本编码器(Text Encoder)首先将用户输入的提示词(Prompt)转换为语义向量,这些语义向量携带着文本信息的精髓,为后续的图像生成提供指导。
潜在空间压缩:
为降低计算复杂度并提取图像的核心特征,采用变分自编码器(VAE)将高维度的图像数据压缩到一个低维度的潜在空间。这个潜在空间是图像信息的精简表示,为后续的处理提供了便利。
· 正向扩散过程:
在潜在空间中,模型通过逐步添加噪声来模拟物理中的扩散现象。这个过程使得图像的特征逐渐模糊,最终转化为完全随机的噪声分布。该步骤是后续噪声预测和图像恢复提的基础。
· 噪声预测器训练:
在训练阶段,采用U-Net结构的神经网络作为噪声预测器,该网络通过学习如何从噪声图像中恢复出原始图像来训练自己,从而具备预测潜在空间中图像噪声的能力。
· 反向扩散与图像生成:
在生成阶段,模型利用训练好的噪声预测器来估计潜在空间中图像的噪声,并逐步去除这些噪声。通过这一过程,模型能够从噪声中恢复出清晰的图像,实现图像的生成。
· 条件生成机制:
SD模型通过提示词来引导图像的生成。这些提示词首先被分词且转换为嵌入向量,再将向量输入到噪声预测器中,以指导整个图像生成过程。这种条件生成机制确保了生成的图像与提示词的内容高度匹配。
· VAE解码与图像输出:
最后,潜在空间中的图像通过VAE的解码器被转换回原始的像素空间,生成最终的图像。这一步骤将潜在空间中的图像信息还原为可视化的图像。
#CLIP Text Encoder模型:
在SD模型中前置引入CLIP Text Encoder模块,该模块负责将输入的文本信息编码成Text Embeddings特征矩阵,这一矩阵紧密关联并反映了文本信息的核心内容。随后,这些Text Embeddings被用作SD模型的控制信号,指导图像的生成过程,确保生成的图像与输入的文本信息高度匹配。
#VAE模块:
对于图生图任务,在提供文本信息的同时,还需要将原始图片送入VAE,VAE(变分自编码器,全称Variational Auto-Encoder)是一种基于Encoder-Decoder架构的先进生成模型。
VAE的Encoder组件负责将输入的图像高效地转换为一个低维度的Latent特征空间表示,这一表示捕捉了图像的关键信息。随后,这个低维的Latent特征被用作U-Net架构的输入,以进一步驱动图像的生成过程。
VAE的Decoder组件则承担着重建任务,它能够将这个低维的Latent特征逆向映射回原始的像素级图像,实现图像的高质量还原。
对于文生图任务,流程则相对简化:仅需输入文本信息,并借助random函数生成一个高斯噪声矩阵,这个矩阵将作为Latent Feature的替代。
#正向扩散与反向扩散:
· 正向扩散过程(Forward Diffusion Process):是一个逐步向图像添加高斯噪声的过程,直至图像最终转变为近乎纯粹的随机噪声矩阵。这一过程模拟了信息从清晰图像向无序状态的自然过渡。
· 反向扩散过程(Reverse Diffusion Process):则是一个去噪过程。它从一个随机噪声矩阵起始,通过一系列迭代步骤,逐步减少并去除噪声,直至最终恢复并生成一张清晰、有意义的图像。这一过程体现了从无序向有序、从潜在空间向可观察图像空间的逆向映射。
U-Net是一种在噪声估计与去除中广泛应用的神经网络架构,其名称源自其独特的U形结构。作为一种全卷积神经网络,U-Net在图像处理领域展现出了极高的效用。
该网络的核心特点在于其能够接收图像作为输入,并通过逐步的下采样(或称为编码过程)来提取图像的低维特征表示。这一过程有助于网络聚焦于图像中的重要属性和结构。随后,U-Net利用上采样(或称为解码过程)逐步恢复图像的细节,直至输出与输入图像尺寸相近的去噪图像。这种设计使得U-Net在图像去噪、分割等多种任务中表现出色。
#图像生成:
U-Net网络在SD中扮演着预测噪声的关键角色,并不断优化生成过程。在预测噪声的同时,U-Net还负责不断融入文本语义信息,以增强生成图像的相关性和准确性。为了更有效地控制生成过程,schedule算法被引入,它对U-Net每次预测的噪声进行动态调整和优化,从而精确控制U-Net预测噪声的强度。
在SD模型中,U-Net的迭代优化过程通常包含大约50到100个Timestep。随着迭代步数的增加,Latent Feature(潜在特征)的质量逐步提升,表现为纯噪声的减少以及图像和文本语义信息的增加。这一过程确保了生成图像的高质量和与输入文本的高度一致性。
在U-Net网络和Schedule算法完成任务后,SD模型会接收经过优化迭代的潜在特征(Latent Feature),并将其输入到变分自编码器(VAE)的解码器部分,以便将这些潜在特征重建为像素级的图像。
如何学习Stable Diffusion ?
2023年,AIGC绘画元年,从年初以来,以Midjourney和Stable Diffusion 为代表的AIGC绘画迎来春天,掀起了一场生产力革命。
Stable diffuson最大的优势在于它的可控性以及免费开源。很多人想学习和使用stable diffusion,网上一搜,往往在安装这一步就劝退了很多人。
也因为Stable diffusion中的参数非常非常多,极其容易劝退,但事实是,对于我们来说,只需要熟练使用即可,并不需要深入的去研究它的原理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的StableDiffusion学习资料包括:StableDiffusion学习思维导图、StableDiffusion必备模型,精品AI学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
第一阶段(10天)Stable Diffusion初始入门
该阶段让大家对StableDiffusion有一个最前沿的认识,规避碎片化学习,对SD的理解将超过 95% 的人。可以在相关讨论发表高级、不跟风、又接地气的见解,成为AI艺术创作领域的佼佼者。
-
1.Stable Diffusion的起源及工作原理
-
2.Midjourney跟Stable Diffusion之间的的区分指南
-
3.Stable Diffusion一键包快速实现部署
-
4.Stable Diffusion启动器参数
-
5.Stable Diffusion的“Settings”页面高效配置Al模型
-
6.Stable Diffusion的插件安装指南
-
7.汉化Stable Diffusion界面实操
-
8.Stable Diffusion中的大模型使用指南
-
9.Stable Diffusion VAE模型
-
10.txt2img文本提示转换成图像实操
-
11.生成(Generate)功能相关的系列按钮
-
12.单批跟总批的配比选择指南
-
13.采样方法
-
14.生成图像的引导迭代步数
-
…
第二阶段(30天)Stable Diffusion进阶应用
该阶段我们正式进入StableDiffusion进阶实战学习,学会构造私有知识库,扩展不同的艺术风格。快速根据甲方的要求改动高效出图。掌握智能绘图最强的AI软件,抓住最新的技术进展,适合所有需出图行业。真·生产力大爆发!!!
-
1.涂鸦Sketch功能
-
2.涂重绘鸦Inpainting Sketch功能
-
3.局部重绘Inpainting功能详解
-
4.上传蒙版Inpainting upload功能
-
5.segment anything辅助抠图功能
-
6.inpaint anything蒙版获取功能
-
7.ControlNet的起源及工作原理
-
8.ControlNet插件扩展功能
-
9.ControlNet基础界面使用指南
-
10.ControlNet五种线稿模型
-
11…ControlNet重绘修复模型
-
12.ControlNet 图像提示迁移模型实战
-
…
第三阶段(30天)专属Lora模型训练
恭喜你,如果学到这里,所有设计类岗位你将拥有优先选择权,自己也能训练Lora 了!通过对模型进行微调有效减少模型的参数量和计算量,以生成特定的人物、物品或画风,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
-
1.定制个人的LORA模型适配个性化需求
-
2.高质量素材过程中的重要事项收集指南
-
3.birme工具批量化的处理图片实战
-
4.BooruDatasetTagManager工具打标图片实战
-
5.正则化训练集使用指南
-
6.SD-tainerLORA训练工具
-
7.SD-tainer工具训练自己的Lora操作
-
8.LORA模型测试指南
-
…
第四阶段(20天):商业闭环
对氛围性场景,关键词技巧,图生图实操流程等方面有一定的认知,教你「精准控制」所有图片细节,可以在云端和本地等多种环境下部署StableDiffusion,找到适合自己的项目/创业方向,做一名被 AI 武装的社会主义接班人。
-
1.CodeFomer模型实战
-
2.固定同一人物形象IP实战
-
3.广告设计
-
4.电商海报设计
-
5.制作3D质感
-
6.室内设计全案例流程
-
7.AI赋能电商新视觉
-
8.老照片修复
-
9.小说推文
-
10.影视游戏制作
-
11.游戏开发设计
-
12.三维软件去精准辅助SD出高质量图实战
-
13.GFPGAN模型实战
-
…
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名AI绘图大神的正确特征了。
这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
】
更多推荐
所有评论(0)