Jax GPT是对Karpathy的nanoGPT的重写,基于Jax和Flax框架构建,旨在提供高效的文本生成能力,支持快速训练和推理,具有易于扩展和修改的架构,能够充分利用高性能的并行计算。
eigenGPT是一个基于C++的高效实现,旨在提供简化的GPT2架构,易于理解和扩展,适合嵌入式系统和资源受限环境。
最新发布的语言模型,包括编程模型和数学模型,性能更强,支持128K上下文,能生成最多8K的内容。
用纯Pytorch原生实现的RWKV大语言模型的推理框架,提供高效的文本生成和推理功能,适合与PyTorch生态系统的其他工具集成,支持开源社区的贡献和协作。
Asian Bart是一个专为亚洲语言设计的BART模型,支持英语、汉语、韩语、日语等多种语言,适用于文本生成、翻译和摘要等多种自然语言处理任务,并提供预训练模型以便于研究和应用。
Kogito是一个专注于自然语言处理中的常识推理的工具包,集成了多种推理算法,并提供易于使用的API,支持自定义知识库,使得用户能够灵活地进行知识推理任务。
Trapper是一个旨在更轻松地在下游任务上训练基于Transformer的模型的NLP库,采用模块化设计,提供一致的API,支持多种下游任务,能够实现最先进的NLP性能。
StartKit.AI是一个结合了10年以上Node.js、Mongo和Stripe经验,以及2年AI工作经验的SaaS基础模板,旨在为您提供创建AI驱动初创企业所需的一切工具和资源。
Lookahead decoding是一种创新的并行解码算法,加速大LLM的推理过程,提升模型生成文本的速度,适用于需要快速回应的应用。
AubAI是一个开源的Flutter/Dart包,旨在为移动应用提供先进的本地生成式AI(gen-AI)模型,包括离线文本生成等功能。
llm-swarm是在Slurm集群中管理可扩展的开放式LLM推理端点的工具,具备生成合成数据集的能力,主要用于预训练或微调。同时,它集成了huggingface/text-generation-inference和vLLM,以支持大规模文本生成任务。
该框架将3D感知集成到预训练的2D扩散模型中,增强了得分蒸馏的鲁棒性和3D一致性,旨在解决2D扩散模型无法捕捉3D一致性的问题。
RAG技术通过检索方法与深度学习结合,动态整合最新的外部信息,以提高大型语言模型生成文本的可靠性,并解决生成过程中可能出现的错误信息(幻觉)问题。
femtoGPT 是一个使用纯 Rust 编写的最小生成预训练 Transformer 实现,旨在提供轻量级、高效的自然语言生成能力,易于集成和扩展,适合各种机器学习应用。