一个全面的大型语言模型(LLM)教学项目,涵盖LLM基础知识、科学家和工程师的相关内容。课程内容包括数学、Python编程、神经网络基础和自然语言处理技术,旨在深入理解LLM架构、数据准备、分布式训练和超参数调整。该项目专注于运行LLMs、构建向量存储和优化推理,同时提供监控、评估方法和安全性保障。
实用指南,教你如何驾驭大型语言模型(LLM)的陷阱,通过Python示例和开源解决方案,让你深入了解LLM的限制和实施中的挑战
一种优化视觉语言提示上下文的方法,通过知识引导提升交互效果。
functionary是一个开源项目,基于LLaMA 2模型,具备理解和调用函数的能力,提供类似OpenAI API的功能,支持多种编程语言,具有很强的可扩展性和易于集成的特性。
大规模机器学习是一个网站,提供来自顶尖科技公司的机器学习系统的见解,涵盖分布式训练、特征存储、设备模型部署、对抗样本的稳健性、行业角色等主题。
该项目提供多种大语言模型微调数据集,旨在帮助用户训练和优化自己的ChatGPT模型,涵盖了多个领域和主题,资源易于访问和使用,适合研究和教育目的。
Fast-LLM是一个开源库,旨在加速大型语言模型的训练。它具有快速的训练速度、良好的可扩展性,支持多种模型架构,并且提供易于使用的接口,适合研究和工业应用。
课程聚焦于如何使用ChatGPT相关API(可使用国内大模型API)创造新的功能和应用。内容主要为介绍ChatGPT原理、使用和应用,降低使用门槛,让更多感兴趣的非NLP或算法专业人士能够无障碍使用LLM创造价值。