基于论文知识复现 Pi(Physical Intelligence)智能视觉行动模型的开源项目,主要功能是模拟人类如何通过视觉和语言理解来指导行动。
该项目专注于通过同心因果注意机制减轻模型中的物体幻觉问题,旨在提高模型对物体的识别能力,特别是在复杂的视觉语言任务中。
SmolVLM是全球最小的视觉语言模型,能够处理多模态任务,包括图片描述、文档问答和基本视觉推理等。它具有256M参数,表现优异,适合在低资源设备上运行。
基于飞桨的跨模态大模型开发套件,聚合图像、文本、视频等多种模态,覆盖视觉语言预训练,文生图,文生视频等丰富的跨模态任务。提供开箱即用的开发体验,同时满足开发者灵活定制需求,探索通用人工智能。
FlexGen: 针对面向吞吐量的场景在单个 GPU 上运行大型语言模型,旨在提高模型的运行效率和简化部署过程。
一个简单的 Python 包,可以更轻松地在非公开或敏感数据以及没有互联网连接的计算机上运行大型语言模型 (LLM)。它支持本地环境,确保数据安全,适用于多种应用场景。
ColorPeel是一个利用扩散模型,通过颜色和形状的分离来进行颜色提示学习的项目,旨在提高图像生成的灵活性与质量。
siliconflow提供 DeepSeek R1、OpenAI o1、GPT-4o、Claude 3.5 和 Gemini 1.5等领先大模型