SmolVLM是全球最小的视觉语言模型,能够处理多模态任务,包括图片描述、文档问答和基本视觉推理等。它具有256M参数,表现优异,适合在低资源设备上运行。
PaLI-3是一个相对更小、更快且更强大的视觉语言模型,其性能表现优于大小为其10倍的类似模型,专注于多模态任务的高效处理。
MM-LLM是一个增强现有大型语言模型的框架,支持多模态输入和输出,同时保持其推理和决策能力。该项目提供全面的模型架构和训练管道设计,并回顾了在主流基准上的表现,旨在推动多模态任务的发展。