mini_qwen开源项目 – 1B参数中英文大语言模型
mini_qwen是一个从头开始训练的1B参数的大型语言模型(LLM)项目,包括预训练(PT)、微调(SFT)和直接偏好优化(DPO)3个部分。该项目基于Qwen2.5-0.5B-Instruct模型,通过扩充模型隐藏状态层数、隐藏状态维度和注意力头数,增加参数量到1B,并进行参数随机初始化。支持中英文,预训练和微调仅需要12G显存,直接偏好优化仅需要14G显存。使用flash_attention_2进行加速,使用deepspeed在6张H800上进行训练,探究了尺度定律(scaling law)、复读机现象与微调阶段的知识注入。