一个用纯C语言实现的项目,旨在训练GPT-2模型,代码量仅为1000行,具有高效的内存管理和性能优化,方便扩展和修改。
这是国内第一个真正的开源、可下载、可运行的 LLaMA2 模型,提供中文版 Llama2模型及中英文 SFT 数据集,兼容适配所有针对原版 llama-2-chat 模型的优化。
在本地计算机上微调 LLAMA-v2(或任何其他 LLM)的最简单方法,提供用户友好的界面和高效的训练过程,支持多种语言模型,方便用户上传数据并进行微调。
一个完整的管道,用于在消费级硬件上使用LoRA和RLHF微调Vicuna LLM。该项目实现了基于Vicuna架构的RLHF(强化学习与人类反馈),基本上是ChatGPT的变种,但使用Vicuna。
Wordware是一个基于网络的集成开发环境,专为大型语言模型(LLM)协调而设计,帮助跨职能团队构建AI应用。它作为LLM的后端,类似于一种新的编程语言,基于英语,同时融合了循环、逻辑和函数调用等概念。
BrowserAI 是一种在浏览器中运行本地AI模型的工具,无需依赖服务器,既保护用户隐私,又实现快速推理。
LLaVA-LLaMA-3是基于Llama-3-8b大型语言模型(LLM)的LLaVA-v1.5复现项目,旨在提供预训练模型及相关的训练和演示脚本,方便研究人员和开发者进行自然语言处理任务的探索与应用。
专为大型语言模型(LLM)训练优化的类,集成了多种高效训练技术,旨在提升训练效率和内存使用效率。