GS-LoRA项目致力于为预训练视觉模型提供持续学习的能力,减少灾难性遗忘的问题,从而在新任务上有效微调模型,提高模型在顺序学习任务中的表现。
专注于训练和微调中等大小 GPT 模型的最简仓库,是 karpathy/nanoGPT 的一个分支,并提供了最大更新参数化(muP)的最小实现,旨在简化用户的使用体验和模型的优化过程。
一个中文低资源的llama+lora方案,基于LLaMA与instruction数据构建的中文羊驼模型,旨在帮助用户快速引入自己的数据并训练出属于自己的小羊驼(Vicuna)。
一个集合了多种LLM应用的项目,包含 AI Agents, RAG, 带记忆的LLM程序等功能。
diffusers是HuggingFace开发的一款强大的图像生成和编辑库,支持多种新的功能和pipeline,旨在提供灵活的图像处理能力,适用于多种应用场景。
YaRN是一个高效的上下文窗口扩展工具,旨在提高大型语言模型的上下文处理能力。
self-adaptive-llms 是一个自适应框架,可以使大型语言模型实时适应未见过的任务,像是为模型装上“智能调节器”,从而在面对新任务时迅速调整,更好地完成任务。
SPARC是一种用于从图像-文本对中预训练更精细的多模态表示的方法,通过在描述中的每个token上学习图像块的分组来实现。