MPS-Net是一个用于从单目视频中捕捉人类运动的模型,专注于时间注意的3D人体姿势和形状估计。该项目通过先进的算法,能够准确地捕捉到人类在运动中的动态变化,为动作分析和交互式应用提供了强有力的支持。
Move AI是一种创新的运动捕捉技术,通过将2D视频转化为3D运动数据,利用先进的AI、计算机视觉、生物力学和物理学,简化了动画角色的运动捕捉过程,适用于从独立创作者到大型工作室的广泛用户。
HandDiff是一种利用扩散模型进行3D手势估计的方法,结合图像和点云数据,实现精确的手势识别和追踪。该项目致力于提升虚拟现实和增强现实中的人机交互体验。
Key2Mesh 仅利用 2D 人体姿势关键点作为输入来进行 3D 人体网格重建。该项目支持大规模运动捕捉数据集的训练,并且不依赖于视觉数据的 3D 标签,通过对抗域适应方法提高在 RGB 图像上的性能。其运行速度比之前最先进的模型快 12 倍,极大提升了重建效率。
Workout Fusion是一款利用机器学习和相机技术的健身应用,可以精确追踪运动表现。用户可以记录卡路里消耗、运动时长和完成的重复次数,并与全球社区互动,参与竞赛。用户可以选择预设的健身计划或根据个人目标自定义训练方案。
这是一个专为健身和物理治疗应用设计的高质量视觉数据集,包含多样化的数据样本,支持机器学习和计算机视觉研究。
LLaMA-VID 是一个用于理解长视频的多模态大模型,通过双令牌策略显著减少了长视频的过载,同时保留了关键信息。
SynCHMR 是一种协同方法,通过结合相机轨迹和人体重建,解决深度、比例和动态模糊性问题。它使用人类感知公制 SLAM 进行重建,并学习场景感知的 SMPL 降噪器,以增强时空一致性和动态场景约束。
siliconflow提供 DeepSeek R1、OpenAI o1、GPT-4o、Claude 3.5 和 Gemini 1.5等领先大模型