Video-R1是一个为视频理解任务带来超强推理能力的多模态大模型。它首次在视频理解领域实现了准确率和推理长度的双重提升,使用7B参数模型,训练900步仅需10小时。通过强推理数据集的助力,Video-R1能够涌现出深度思考能力,为视频理解任务提供了强大的支持。
MM-RLHF 是一个多模态大语言模型对齐项目,旨在通过高质量指令数据和先进算法,提升模型在图像、视频理解和安全任务中的表现。该项目提供了20k高质量指令数据,覆盖多种任务,并提出全新的MM-DPO算法,显著提升模型性能。此外,项目还包含80k对比对,为强化学习训练提供强大支持。
MiniGPT4-Video是一个专为视频理解而设计的多模态大模型,能够同时处理时态视觉数据和文本数据,善于理解视频的复杂性,适用于多种视频内容的分析和处理任务。
OmAgent是一个多模态智能体系统,专注于利用多模态大语言模型能力以及其他多模态算法来处理各种多模态任务。
Gemini是谷歌最大的AI模型,旨在通过加速人类进步和改善生活给人类和社会带来巨大利益。它在多个领先基准上表现出色,支持不同尺寸的优化:Ultra、Pro和Nano。Gemini从零开始构建为多模态,能够理解、操作和结合文本、代码、音频、图像和视频等不同类型的信息。
一个专注于挖掘多模态视觉语言模型潜力的开源项目,支持从2B到34B不同规模的密集和MoE大型语言模型,具备图像理解、推理和生成的能力。
LISA是一个将语言大模型(LLM)与其他视觉模型(如SAM)结合的分割助手,旨在根据复杂和隐含的查询文本输出分割掩码。
这个项目能分析图像中对象之间的关系,是一个将Meta的Segment-Anything模型与ECCV'22论文相结合的演示:Panoptic Scene Graph Generation。
Merlin是一种由和支持的新型MLLM,展示了增强的视觉理解、未来推理和多图像输入分析能力。研究人员提议将未来建模引入多模态LLM(MLLMs)中,以提高对基本原则和主体意图的理解。他们利用了现有学习范式启发的预见性预训练(FPT)和预见性指令调优(FIT)技术。
Vary-toy是一个基于Qwen-1.8B的小型Vary模型,引入了改进的视觉词汇,使模型具有更高的普适性和更好的视觉信息编码能力。
本研究使用基准测试,将GPT-4及其多模式版本与人类在抽象和推理任务上进行了比较。结果显示,即便使用详细的单次提示和简化的图像任务,两个版本的GPT-4都未能达到人类水平的抽象推理能力。
LAVIS是一个一站式的语言-视觉智能库,支持多种语言-视觉任务,集成多种预训练模型,提供简单易用的API,以及自定义模型的训练和评估,具备高效的推理速度和性能。
AlterEgoAI是一个前沿的AI驱动图像生成工具,用户可以在各种风格中创建令人惊叹的自定义图像,帮助将想象力变为现实。
LLaMA-Adapter V2 是一个高效的模型适配器,能够在短时间内完成训练并支持多模态功能,包括图像解释和问答。
初步探索复现o1类多模态大型语言模型,旨在通过结合视觉和文本数据,提升模型的推理和理解能力,推动人工智能在复杂任务中的应用
该项目专注于开发持续的场景表示,以增强具身AI系统的能力,支持实时场景理解和动态环境中的导航与交互。
基于LLaMA 3.1的增强视觉指令微调工具,为多模态大型语言模型提供性能提升,公开发布8B参数模型的检查点。
本项目对链式思维推理进行了全面的文献回顾,分析了AI推理技术的最新进展,讨论了未来方向和开放挑战,并汇编了该领域的关键论文和贡献。