Black Forest Labs的Flux模型训练脚本集,支持LoRA和ControlNet模型的微调,使用DeepSpeed进行高效训练,适用于512x512及1024x1024图片尺寸,提供下载链接和训练配置文件
ChatGLM_multi_gpu_zero_Tuning是一个结合deepspeed和trainer的框架,旨在高效实现多卡微调大模型,目前支持LoRA、Ptuning-v2和Freeze三种微调方式,能够充分利用多卡资源,简化微调流程,适用于研究和开发.