本项目提供了一份关于大型预训练基础推荐模型的文献综述,探讨了推荐系统的基础模型及其演变,包括ID嵌入的必要性、替代方案,以及推荐系统向生成范式转变的可能性。此外,还研究了如何利用大型语言模型增强推荐系统的性能,并论述了多模态推荐系统的未来发展方向。
一个关于大型语言模型系统相关论文的综合性列表,旨在为研究人员和开发者提供有价值的资源和参考。
LLaMA-O1 是一个大型推理模型框架,专为 PyTorch 和 HuggingFace 设计,支持训练、推理和评估。它集成了蒙特卡洛树搜索(MCTS)、自我对弈强化学习、PPO 和类似 AlphaGo Zero 的双策略范式,适用于大型语言模型的开发和应用。
该项目是一份多模态大语言模型相关论文和资源的阅读清单,旨在汇集、分类和整理最新的研究成果,帮助研究人员和开发者了解多模态LLM的进展和最佳实践。
关于测试时计算的资源库,从直觉式思维(System-1)过渡到理性式思维(System-2),汇集了大量关于如何在测试阶段提升大型语言模型性能的研究和方法,帮助模型在面对新任务时更好地适应和推理。
GPT-NeoX是基于DeepSpeed库的模型并行自回归变换器在GPU上的实现,具有高效的训练和推理性能,旨在支持大规模模型的开发和研究。
siliconflow提供 DeepSeek R1、OpenAI o1、GPT-4o、Claude 3.5 和 Gemini 1.5等领先大模型