Platypus是一系列经过微调和合并的,在Open LLM排行榜上名列前茅的 LLM 改进方案。通过结合PEFT和LoRA等方法,通过高质量数据集实现强大的性能。
Lorax 是一个基于 JAX 实现的低秩适应(LoRA)工具,旨在帮助研究人员和开发者高效微调大型语言模型。它利用低秩矩阵的方式,减少了微调过程中需要调整的参数数量,提升了计算效率,同时保持了模型性能。Lorax 易于集成,适合快速实验与原型开发,特别是在处理大型预训练模型时表现出色。
专门用于大型语言模型微调和对齐的库,它提供了一系列高效和可扩展的技术,以及广泛的支持方法和指标,旨在简化模型的训练和部署过程
AI Docs是一个平台,允许用户塑造和训练多个语言学习模型(LLM),以自动化各种任务。这些模型可以导出为API、Telegram机器人或WhatsApp机器人。用户可以使用提供的工具和资源创建和训练自己的LLM,指定所需功能并相应地训练模型。一旦训练完成,LLM可以被导出并集成到不同的应用程序或平台中。
RAGoon是一个用于批量生成嵌入、极速基于Web的RAG和量化索引处理的高级库,旨在提升语言模型的性能。它通过搜索查询、网页抓取和数据增强技术,为用户提供上下文相关的信息,帮助更好地理解和利用数据。
katakomba是一个专为NetHack游戏设计的数据驱动的基准测试工具,提供超过30个标准化数据集,并支持多种基于循环的离线强化学习基线模型,旨在促进研究和开发中的基准测试。
是参数高效的语言模型微调中最受欢迎的方法之一。该项目探讨了以参数高效的方式进行语言模型的预训练,并引入了一种名为ReLoRA的方法,利用低秩更新来训练高秩网络。
LaMini-LM是一个对多个迷你大语言模型进行微调的项目,旨在提升模型的性能,其中包括经过微调的GPT-2,其性能可与LLaMa的Alpaca-7B相媲美。
一种特殊的神经网络架构,可以在不增加推理成本的情况下,为语言大模型(LLM)增加可学习的参数。该研究发现模型比密集模型更能从指令调优中获益,因此提出将MoE和指令调优结合起来。