qlora-pipe是一个开源脚本,旨在通过在四块4090 GPU上进行定制训练,以高效的方式训练大型语言模型(LLM)。它支持多块GPU的并行训练,并提供多种配置选项以优化训练流程,确保用户能够根据不同的需求灵活调整训练参数。
Efficient Large LM Trainer 是一款专为大规模语言模型设计的高效训练工具,旨在通过优化的算法和资源管理,提升训练速度并减少内存占用,支持多种硬件设备,便于用户集成和使用。
基于 MLX 框架的 Silicon LLM 训练和推理工具包,简化了在 Apple Silicon 上训练和运行大语言模型的过程,旨在为开发者提供高效、易用的工具,以应对资源有限的设备上的大语言模型需求。
Giskard是一个用于大规模检测和测试机器学习模型的工具,能够自动检测幻觉和偏见。它支持自托管和云部署,集成了多个平台,如🤗、MLFlow和W&B,适用于从表格模型到大型语言模型的各种应用。
Crawl4AI是一个简单易用且高效的网页爬虫开源工具,专为大型语言模型(LLM)设计,用于爬取并输出适合训练的数据格式,如Markdown、JSON和HTML等。它具备强大的反爬能力,支持多种媒体数据的提取,同时提供友好的API接口和自定义抓取规则,适合集成到机器学习工作流中。
AnyCores 是一个深度学习编译器,旨在通过优化深度神经网络的性能来降低计算成本,提供超过10倍的加速效果。
DeepSpeed Chat是一个系统框架,可以在模型训练中加入RLHF流程。它支持各种规模的高质量类ChatGPT模型的训练,包括千亿级大模型的一键RLHF训练。
LLMOps是一个灵活、稳健且高效的Python工具包,专为大型语言模型(LLM)的运营设计。它提供了模型注册、实验跟踪和实时推理等关键功能,帮助开发者和研究人员更好地管理和优化他们的模型。该工具包支持高效的操作,并具备灵活的集成能力,适用于各种机器学习工作流。
用于 LLaMA 3 8B 参数版本的轻量级 CUDA C 语言实现的推理引擎,旨在在 Nvidia GPU 上进行高效的并行处理。该项目旨在充分利用 Nvidia GPU 的性能,以提供快速的模型推理,并易于集成到现有的机器学习工作流中。
LOMO是复旦大学提出的新论文,旨在使用单台8片24G的RTX 3090对Llama 65B模型进行全参数微调。该项目通过优化训练效率和性能,为用户提供了兼容多种深度学习框架的解决方案,并附带详细的实验结果和分析,帮助用户更好地理解模型的表现。
MiceWine是一款让用户能够在安卓设备上运行多种Windows应用和游戏的工具。它通过定制的Wine和Box64实现最佳性能,兼容安卓10及以上版本,并支持多种GPU,旨在提供流畅的跨平台体验。
提供一种 Pythonic 方式在 LLM 管线上运行离线评估,以便轻松投入生产
siliconflow提供 DeepSeek R1、OpenAI o1、GPT-4o、Claude 3.5 和 Gemini 1.5等领先大模型