MiniMax发布的语言模型,4560亿参数,其中每个token激活459亿参数。采用混合架构,结合Lightning Attention、Softmax Attention和专家混合(MoE),能在推理时处理长达400万token的上下文,在多个学术基准测试中表现出色。
一个汇集了大量关于人体动作生成的论文的项目,持续更新最新研究进展,涵盖多种生成方式,如动作到动作、文本到动作和音频到动作。
该项目汇集了关于大型语言模型(LLM)规划能力的重要文献,提供对LLM规划能力的深入理解,支持研究人员和开发者了解最新的研究动态,为相关领域的学习和研究提供参考资料。
下一代基于大型语言模型的推荐系统综述资源,涵盖学术研究到工业应用的全面分析,旨在为研究人员和开发者提供最新的研究进展和实际应用案例。