该项目提供了Vision Transformer在Tensorflow中的完整实现,支持多种数据集和任务,易于扩展和修改,并包含详细的使用示例和文档,帮助用户快速上手并深入了解模型的应用与性能。
K-Scale Sim是一个简单高效的库,专为在MJX和MuJoCo中训练仿人类运动而设计,支持强化学习代理的训练和评估,提供快速原型设计、环境规范和超参数调整功能,同时通过Weights & Biases跟踪和记录训练结果。
LLMTuner是一个高效的工具,旨在通过简化的微调流程,使用户能够在几行代码内调整大语言模型(LLM)。它支持多种预训练模型的加载和微调,提供灵活的超参数调整功能,同时拥有友好的用户界面,便于用户快速上手。该项目的可扩展性强,适用于不同的应用场景。
一个全面的大型语言模型(LLM)教学项目,涵盖LLM基础知识、科学家和工程师的相关内容。课程内容包括数学、Python编程、神经网络基础和自然语言处理技术,旨在深入理解LLM架构、数据准备、分布式训练和超参数调整。该项目专注于运行LLMs、构建向量存储和优化推理,同时提供监控、评估方法和安全性保障。
实用指南,教你如何驾驭大型语言模型(LLM)的陷阱,通过Python示例和开源解决方案,让你深入了解LLM的限制和实施中的挑战
一种优化视觉语言提示上下文的方法,通过知识引导提升交互效果。
functionary是一个开源项目,基于LLaMA 2模型,具备理解和调用函数的能力,提供类似OpenAI API的功能,支持多种编程语言,具有很强的可扩展性和易于集成的特性。
大规模机器学习是一个网站,提供来自顶尖科技公司的机器学习系统的见解,涵盖分布式训练、特征存储、设备模型部署、对抗样本的稳健性、行业角色等主题。
该项目提供多种大语言模型微调数据集,旨在帮助用户训练和优化自己的ChatGPT模型,涵盖了多个领域和主题,资源易于访问和使用,适合研究和教育目的。
Fast-LLM是一个开源库,旨在加速大型语言模型的训练。它具有快速的训练速度、良好的可扩展性,支持多种模型架构,并且提供易于使用的接口,适合研究和工业应用。
课程聚焦于如何使用ChatGPT相关API(可使用国内大模型API)创造新的功能和应用。内容主要为介绍ChatGPT原理、使用和应用,降低使用门槛,让更多感兴趣的非NLP或算法专业人士能够无障碍使用LLM创造价值。