MIMIC-CXR-VQA是一个复杂、多样且大规模的医学领域视觉问答(VQA)数据集,基于MIMIC-CXR数据库,旨在推动医学图像理解和问答系统的研究与应用。数据集包含多种类型的问题和答案,适用于模型的训练和评估,支持多种视觉问答任务。
Masked Record Modeling 通过使用掩蔽记录建模技术,推动放射图像表示学习的进步,增强医学图像分析的能力。
CogAgent是一个专门用于图形用户界面(GUI)理解和导航的180亿参数视觉语言模型(VLM)。它能够处理高分辨率的输入,准确识别页面元素和文本,适用于多种视觉问答任务,在各类基准测试中表现优异。
用于评估视觉语言模型在多样化基准测试中的鲁棒性的Python库,提供60种VLM模型和40种评估基准的全面工具和脚本,支持大规模模型和大规模训练样本,简化视觉语言模型的评估过程
HRS-Bench 是一个全面、可靠且可扩展的基准,专为评估文本到图像模型而设计。它提供了多种性能指标,确保在不同模型规模下的可扩展性和可靠性。
mm-cot是亚马逊开源的多模态链式思维(Multi-modal Chain of Thought)模型,旨在提升大语言模型在复杂任务中的表现。它支持多模态输入,包括文本和图像,并通过链式思维增强推理能力,特别针对复杂任务进行了优化的架构设计,方便研究人员和开发者进行二次开发。
CheXagent是一个基于视觉和语言的基础模型,专注于胸部X光片的解读,旨在解决医学图像领域中大规模视觉-语言数据集的有限性等挑战。该模型利用大规模的指令微调数据集CheXinstruct,设计了一个临床大型语言模型(LLM)和一个用于表示X射线图像的视觉编码器,同时连接视觉和语言模态的网络,提供了新的评估基准CheXbench用于系统评估。
Imagen是一个文本到图像的扩散模型,具有极高的真实感,利用大型变换器语言模型来理解文本并生成高保真图像。它在COCO数据集上取得了7.27的最先进FID分数,并在样本质量和图像-文本对齐方面被人类评审者优先选择。
LiveBench AI是一个由Abacus AI和杨立昆及其团队合作创建的基准测试工具,通过发布新问题和基于最新数据集设置评测,确保基准测试的无污染性。它包含18个任务,分为6个类别,初始发布960个问题,任务全面多样化。
SurgicalSAM是一个高效的手术工具分割项目,支持类提示,旨在提升手术视频分析和医疗图像处理的效率。