一种特殊的神经网络架构,可以在不增加推理成本的情况下,为语言大模型(LLM)增加可学习的参数。该研究发现模型比密集模型更能从指令调优中获益,因此提出将MoE和指令调优结合起来。
通过实现环境配置功能以及整合多项优化训练技术,使得用户能以简单高效的方式对语言模型进行训练优化,得到切实可行的产出
Fast-LLM是一个开源库,旨在加速大型语言模型的训练。它具有快速的训练速度、良好的可扩展性,支持多种模型架构,并且提供易于使用的接口,适合研究和工业应用。
YaRN是一个高效的上下文窗口扩展工具,旨在提高大型语言模型的上下文处理能力。
Residual Prompt Tuning是一种通过残差重参数化方法来改善提示调优性能的技术,旨在提高自然语言处理任务中的效果,优化预训练语言模型的表现。
Poozle 正在构建票务 SaaS 工具的集成基础设施,提供一个 API,使公司能够同时集成多个工具,如 Github、Jira、Notion、Zendesk、Salesforce 等。支持大型语言模型(LLM)的集成,提供可扩展的API接口,灵活的插件系统,用户友好的界面,以及强大的社区支持和文档。
是参数高效的语言模型微调中最受欢迎的方法之一。该项目探讨了以参数高效的方式进行语言模型的预训练,并引入了一种名为ReLoRA的方法,利用低秩更新来训练高秩网络。