Stable Fast 是一个超轻量级的推断性能优化库,专为在 NVIDIA GPU 上优化 HuggingFace Diffusers 库的性能而设计。
本项目研究了大语言模型中的epoch次数设置问题,深入探讨训练epoch数量对模型性能的影响,以及在不同数据集上epoch数量的变化如何影响训练的充分性和效果。
llama-jax是LLaMA的JAX实现,旨在利用Google Cloud TPU进行训练,提供高效、灵活的模型训练解决方案。
支持ONNX模型量化的开源Python库,提供流行的模型压缩技术,如SmoothQuant和权重量化,适用于Intel硬件和流行的大型语言模型(LLM)。
Cerebrium是一个无服务器AI基础设施平台,旨在高效、经济地构建、部署和扩展AI应用。它提供多种GPU,性能卓越,相比于主要云服务提供商如AWS和GCP具有显著的成本优势。
DataEndpoint.co是一个专注于AI和机器学习API的市场,提供一系列最佳的API端点,用户可以方便地发起请求并预测结果,极大地简化了使用过程。
siliconflow提供 DeepSeek R1、OpenAI o1、GPT-4o、Claude 3.5 和 Gemini 1.5等领先大模型