Llama Stack 是一个开源项目,旨在将 LLM 应用构建生成周期的所有组件打包,包括训练、微调、产品评估、观测、Agent & Memory、合成数据生成等,并支持 9+ 提供商。
这本书的实践代码,旨在帮助读者掌握大型语言模型的使用和应用,提供丰富的示例和深入的讲解,适合各级开发者。
专为物理AI设计的世界基础模型平台,旨在帮助物理AI开发者更好更快地构建物理AI系统。
这是国内第一个真正的开源、可下载、可运行的 LLaMA2 模型,提供中文版 Llama2模型及中英文 SFT 数据集,兼容适配所有针对原版 llama-2-chat 模型的优化。
Grok-1是xAI推出的开源大语言模型,拥有3140亿参数,适用于NLP任务,并提供JAX示例代码,便于加载、运行和微调。
Auto-GPT-ZH是中文版AutoGPT,旨在提供一个中文环境下的自动化GPT应用,支持多种API扩展,用户可以自定义任务和目标,具有高效的文本生成和对话能力,界面友好,适合各种中文场景的应用。
Asian Bart是一个专为亚洲语言设计的BART模型,支持英语、汉语、韩语、日语等多种语言,适用于文本生成、翻译和摘要等多种自然语言处理任务,并提供预训练模型以便于研究和应用。
OpenChat是一个遵循“少即是多”理念的开源大语言模型,基于LLaMA架构,经过6K GPT-4对话数据的微调,旨在提供高效的自然语言处理能力。
一个用纯C语言实现的项目,旨在训练GPT-2模型,代码量仅为1000行,具有高效的内存管理和性能优化,方便扩展和修改。
FreeWilly1 是一个基于 LLaMA 65B 的自然语言处理模型,在一些评测中表现优异,适合多种语言生成和理解任务。
UniMoCap是一个社区实现,旨在统一文本-动作数据集(HumanML3D、KIT-ML和BABEL)以及全身动作数据集(Motion-X)。
LMQL是一种专门为大型语言模型(LLMs)设计的查询语言,结合了自然语言提示和Python的表达能力。它提供了约束、调试、检索和控制流等功能,以便于与LLMs的交互。
H2O LLM Studio是一个用户友好的图形界面工具,允许用户轻松微调大型语言模型(LLM),无需编程技能。
智析是浙江大学基于Llama架构开发的13B参数规模的大型模型,专注于知识抽取,具备高效的自然语言处理能力,能够处理复杂的信息提取任务。
SuperCLUE-Llama2-Chinese是基于SuperCLUE的OPEN基准,为Llama2开源模型提供全方位的中文评估,支持多种评测指标,致力于推动中文自然语言处理的发展。
基于GPT-2模型的中文文本生成项目,旨在为中文自然语言处理提供强大的文本生成能力,支持预训练和fine-tuning,适用于多种场景,如创作、对话等。
Frame Semantic Transformer是一个基于T5模型的框架语义解析器,利用FrameNet进行深度语义分析,支持多种自然语言处理任务,具备灵活的模型训练和微调能力,能够高效地进行推理。
Hunyuan-Large是腾讯推出的大型MoE(Mixture of Experts)模型,拥有3890亿参数和520亿激活参数,是业界目前最大的开源Transformer基础MoE模型,专注于自然语言处理和长文本理解。