05:我用stable diffusion轻松生成了CG美女
最近一边自学stable diffusion,一边写了几篇关于stable diffusion理论的文章。在不断的学习过程中,愈发觉得理论固然重要,但是实践也相当重要。对于很多自学者来说,实践比理论更重要。毕竟,学习stable diffusion的目的就是生成图片。而且stable diffusion的webui,本身就是为了屏蔽底层AI绘画生成代码的细节,让整个AICG的过程对用户透明,让用户
前言
最近一边自学stable diffusion,一边写了几篇关于stable diffusion理论的文章。在不断的学习过程中,愈发觉得理论固然重要,但是实践也相当重要。对于很多自学者来说,实践比理论更重要。
毕竟,学习stable diffusion的目的就是生成图片。而且stable diffusion的webui,本身就是为了屏蔽底层AI绘画生成代码的细节,让整个AICG的过程对用户透明,让用户通过调整参数使用即可。
秉着边学习边实践的原则,今天就来完成写实CG风格美女图片的生成。
模型
首先要选择大模型,这里选择的是 NingLO-PureCGrealistic_3.0 模型,是专门用来生成CG风格美女的模型。这里说的大模型,有时候也被称为底模,因为除此之外还有LoRA模型,这个后面理论篇再写。vae模型选择vae-ft-mse-840000-ema-pruned即可。
采样参数
大模型推荐的采样方法(Sampler)是EULER A, 采样迭代步数(Steps)为20 ,推荐的放大算法为ESRGAN_4x.
重绘幅度(Denoising)推荐0.2-0.5,文生图不需要设置这个参数。提示词相关性(CFG Scale)推荐3-5,我没接受推荐使用的是7。
选择好大模型和设置好一系列参数之后,就开始来编写text prompt。在文生图中,text prompt是主要控制最终图片生成的条件,所以text prompt决定图片的走向,这里就先写正向prompt。
text prompt
首选确定主题:女孩,所以第一个prompt就是1girl,我们直接生成图片。
可以看出,仅仅一个提示词生成的图片也是很漂亮的。同时主体已经明确了,我们可以对女孩细节再进行调控,例如:发色、全身/半身、服装。也可以对图片细节进行调节,例如背景等。
- 定义画质:masterpiece,best quality, ultra highres
- 女孩细节:red shirt,long hair,streaked hair,denim miniskirt,hands in pocket,wavy hair,pink hair,
- 图片细节:white background
其中关于头发hair的prompt挺多的,包括streaked挑染、wavy波浪,pink粉红。最后组合prompt如下:
1girl,masterpiece,best quality, ultra highres,red shirt,long hair,streaked hair,denim miniskirt,hands in pocket,wavy hair,pink hair, white background
出图
根据上面的prompt,最后出图:
但是挑染没有出来效果,调高权重(streaked hair:1.4)再出图:
从图片看,已经符合prompt的预期结果了。而且我在这里没有设置负面text prompt,因为图片没有出现一些低质量、水印、人物细节问题,所以不需要负面text prompt去修正。
最后就是加了一个Shadow on the wall的提示词,影子就映射在了墙上。
结语
本篇文章就是我使用NingLO-PureCGrealistic模型生成CG图片的一个实践,这个模型和真人模型有类似的地方,后面会以此模型为基础,配合一些LoRA模型做出一些有意思的东西。
更多推荐
所有评论(0)