WizardLLM 是由北大和微软亚研院提出的一种高效训练大型语言模型的方法,旨在通过利用小规模数据集,借助GPT生成更大且难度逐步提升的数据集,从而显著降低训练成本。该方法适用于数据稀缺的场景,帮助研究人员和开发者在资源有限的条件下仍能训练出高性能的语言模型。