本文总结了使用Stable Diffusion模型进行图像生成时的各种训练技巧及心得体会,包括LORA微调、DreamBooth个性化训练以及利用概念滑块探索创意空间的方法。
稳定扩散(Stable Diffusion)是一种先进的机器学习技术,在图像生成和微调任务中有广泛应用。这种方法基于深度学习模型,能逐步生成高质量的图像,并通过微调适应特定风格或概念。
训练环境设置是关键环节之一。使用的启动环境为`hh_sdfinetune`,路径具体指向某个目录(未详细说明)。命令`.gui.sh --listen 0.0.0.0 --server_port=7861 --headless`用于启动图形用户界面(GUI),方便交互式微调模型。
数据集的准备是训练中的重要步骤。人物数据集可以使用单独图像或图像与文本对,而风格数据集中需要包含对应的描述性文字。如果启用Enable buckets选项,则无需剪裁图片,虽然会延长训练时间但能保留原始信息。标签格式通常包括触发词以避免模型污染,但在本例中作者提到加不加触发词影响不大。命名规则建议采用`repeats_identifier class`形式,其中`repeats`代表重复次数,“identifier”是图像名称,而“class”指类别。
正则化过程涉及使用基础模型根据标签文本生成图像或基于图像类别进行生成,帮助学习不同风格和内容。训练LORA(Look Once and Remember Anything)时的实验总结显示:100张图片总步数为6000-8000,25张图则大约3000步左右;超过15,000步效果可能不佳。基础参数设置中,Model Quick Pick 应选择`custom`,预训练模型路径需填写(例如某特定路径)。对于SDXL和SD1.5的训练,则需要勾选相应选项。
Dreambooth模型训练流程与LORA类似,均以基础检查点为起点。Concept Sliders允许通过图像或文本滑块微调模型属性如眼睛大小、性别等。相关源代码位于某个目录下(未具体说明),根据不同配置调整命令行参数进行训练。
最终输出的模型需放置特定目录以便WebUI使用:LORA模型置于某路径,SD1.5则放在另一指定位置。通过在提示词中加入如``或``控制行为效果。
综上所述,稳定扩散训练包括数据准备、选择合适的基础模型和微调参数设置,并利用WebUI展示结果及应用新模型。整个过程需要对深度学习与图像生成有深入理解以及良好的实验实践经验和总结。