提出 RetNet 作为 LLM 的基础架构,同时实现训练并行性、低成本推理和良好性能。
DeepSpeed Chat是一个系统框架,可以在模型训练中加入RLHF流程。它支持各种规模的高质量类ChatGPT模型的训练,包括千亿级大模型的一键RLHF训练。
Fine-Tuner AI是一款强大的工具,利用尖端的微调技术提升您的自然语言处理(NLP)模型性能。它可以在更少的数据下以极短的时间内实现更好的结果。用户只需将NLP模型和数据上传到平台,Fine-Tuner将应用其先进的微调算法,优化模型以提高性能。优化后的模型可以轻松集成回现有工作流程中。
min-LLM是一个轻量级的框架,旨在通过最小化代码来简化大语言模型(LLM)的训练过程。它提供了一个高效的训练流程,支持快速原型开发,并且易于集成和扩展,适合研究人员和开发者使用。
基于ONNX Runtime的Java的Stable Deffusion管线,具有GUI界面和负面文本支持,展示了如何在Java中使用ONNX Runtime进行推理,并提供了性能优化的最佳实践
本项目研究了大语言模型中的epoch次数设置问题,深入探讨训练epoch数量对模型性能的影响,以及在不同数据集上epoch数量的变化如何影响训练的充分性和效果。
该项目汇集了精选的扩散模型推理论文,涵盖了多种技术,包括采样、缓存以及多GPU支持,为研究者和开发者提供了丰富的学习和应用资源。
FasterTransformer是一个旨在提高Transformer模型速度和效率的工具,支持多种架构如BERT和GPT,提供高性能的推理和训练,且易于集成。它支持FP16和INT8量化技术,能够在NVIDIA GPU上实现高效的模型推理和快速训练,适合在生产环境中部署优化后的模型。
该项目探讨了通过量化、剪枝和蒸馏等手段来降低改造和使用大语言模型(LLM)的成本。
集成了 TeaCache 的 ComfyUI 插件,用于加速图像、视频和音频扩散模型的推理过程,支持多种模型,并提供了简单的安装方法和推荐配置
ReComA旨在通过Agent通信实现推理问题的简化开发,提供了一个灵活的框架,支持多Agent间的通信,易于集成到现有系统中。
该项目提供了一种利用多模态半监督学习进行文本识别的方法,结合了标记和未标记数据以提高识别精度。
TUMCC是一个用于识别Telegram地下市场中中文术语的语料库,旨在帮助研究者分析在线非法活动的语言特征。该语料库包含对各种术语及其含义的注释,并利用上下文和语言特征提高识别能力。
siliconflow提供 DeepSeek R1、OpenAI o1、GPT-4o、Claude 3.5 和 Gemini 1.5等领先大模型