VLM-Visualizer是一个视觉-语言模型注意力可视化工具,旨在通过结合语言模型和视觉变换器的注意力权重,生成输入图像上的注意力图,以直观展示模型在生成特定令牌时关注图像的哪些部分。
一个专注于挖掘多模态视觉语言模型潜力的开源项目,支持从2B到34B不同规模的密集和MoE大型语言模型,具备图像理解、推理和生成的能力。
一个完整的管道,用于在消费级硬件上使用LoRA和RLHF微调Vicuna LLM。该项目实现了基于Vicuna架构的RLHF(强化学习与人类反馈),基本上是ChatGPT的变种,但使用Vicuna。
AI Collective Tools是一个激动人心的开源社区,致力于创建一个全面的工具集合,供开发者、研究人员和爱好者访问和协作。该项目旨在促进创新和合作,使用户能够共享知识、资源和技术,从而提升AI领域的整体发展。
一个教育性的稀疏注意力机制实现库,专注于LLM推理的优化,提供多种注意力模式及其详细教程,旨在帮助用户理解和应用稀疏注意力技术。
siliconflow提供 DeepSeek R1、OpenAI o1、GPT-4o、Claude 3.5 和 Gemini 1.5等领先大模型