这是国内第一个真正的开源、可下载、可运行的 LLaMA2 模型,提供中文版 Llama2模型及中英文 SFT 数据集,兼容适配所有针对原版 llama-2-chat 模型的优化。
Grok-1是xAI推出的开源大语言模型,拥有3140亿参数,适用于NLP任务,并提供JAX示例代码,便于加载、运行和微调。
Auto-GPT-ZH是中文版AutoGPT,旨在提供一个中文环境下的自动化GPT应用,支持多种API扩展,用户可以自定义任务和目标,具有高效的文本生成和对话能力,界面友好,适合各种中文场景的应用。
Asian Bart是一个专为亚洲语言设计的BART模型,支持英语、汉语、韩语、日语等多种语言,适用于文本生成、翻译和摘要等多种自然语言处理任务,并提供预训练模型以便于研究和应用。
OpenChat是一个遵循“少即是多”理念的开源大语言模型,基于LLaMA架构,经过6K GPT-4对话数据的微调,旨在提供高效的自然语言处理能力。
一个用纯C语言实现的项目,旨在训练GPT-2模型,代码量仅为1000行,具有高效的内存管理和性能优化,方便扩展和修改。
FreeWilly1 是一个基于 LLaMA 65B 的自然语言处理模型,在一些评测中表现优异,适合多种语言生成和理解任务。
UniMoCap是一个社区实现,旨在统一文本-动作数据集(HumanML3D、KIT-ML和BABEL)以及全身动作数据集(Motion-X)。
LMQL是一种专门为大型语言模型(LLMs)设计的查询语言,结合了自然语言提示和Python的表达能力。它提供了约束、调试、检索和控制流等功能,以便于与LLMs的交互。
H2O LLM Studio是一个用户友好的图形界面工具,允许用户轻松微调大型语言模型(LLM),无需编程技能。
智析是浙江大学基于Llama架构开发的13B参数规模的大型模型,专注于知识抽取,具备高效的自然语言处理能力,能够处理复杂的信息提取任务。
SuperCLUE-Llama2-Chinese是基于SuperCLUE的OPEN基准,为Llama2开源模型提供全方位的中文评估,支持多种评测指标,致力于推动中文自然语言处理的发展。
基于GPT-2模型的中文文本生成项目,旨在为中文自然语言处理提供强大的文本生成能力,支持预训练和fine-tuning,适用于多种场景,如创作、对话等。
Frame Semantic Transformer是一个基于T5模型的框架语义解析器,利用FrameNet进行深度语义分析,支持多种自然语言处理任务,具备灵活的模型训练和微调能力,能够高效地进行推理。
Hunyuan-Large是腾讯推出的大型MoE(Mixture of Experts)模型,拥有3890亿参数和520亿激活参数,是业界目前最大的开源Transformer基础MoE模型,专注于自然语言处理和长文本理解。
这是一个可以让你轻松运行LLaMA2聊天模型的项目,支持官方版和中文版,仅需3个步骤即可完成部署。它可以在无GPU的环境中运行,适合低配置设备,使用INT4量化,支持5GB至14GB的显存配置。
WizardLLM 是由北大和微软亚研院提出的一种高效训练大型语言模型的方法,旨在通过利用小规模数据集,借助GPT生成更大且难度逐步提升的数据集,从而显著降低训练成本。该方法适用于数据稀缺的场景,帮助研究人员和开发者在资源有限的条件下仍能训练出高性能的语言模型。
中文Mixtral-8x7B,基于Mistral发布的模型Mixtral-8x7B进行了中文扩词表增量预训练,旨在提升中文文本生成和理解能力,支持多种自然语言处理任务。