LLaMA Efficient Tuning 是一个专门用于高效微调大型语言模型的框架,支持PEFT(Parameter-Efficient Fine-Tuning),结合了预训练(PT)、监督微调(SFT)和强化学习人类反馈(RLHF)。该框架采用模块化设计,易于扩展和定制,适用于多种任务和场景。