一种快速模仿学习工具,通过图扩散技术实现即时策略生成,帮助机器人快速学习新任务
由S-Lab、南洋理工大学和上海人工智能实验室联合发布的文本驱动的人物视频生成技术,能够根据用户输入的文本描述生成高质量的人物视频,支持多种风格和场景,提供用户友好的操作界面。
DinkyTrain是普林斯顿大学NLP团队基于fairseq构建的预训练库,集成了DeepSpeed内核,旨在提供高效的模型训练和简化的训练过程,支持灵活的配置选项。
LLMTuner是一个高效的工具,旨在通过简化的微调流程,使用户能够在几行代码内调整大语言模型(LLM)。它支持多种预训练模型的加载和微调,提供灵活的超参数调整功能,同时拥有友好的用户界面,便于用户快速上手。该项目的可扩展性强,适用于不同的应用场景。
VIMA是一款连接了机械臂的语言模型(LLM),能够接收多模态的指令,支持文字、图片、视频等输入形式。该系统能够逐步感知环境并采取实际动作,支持多模式提示,使任务描述简单灵活,统一多种任务,如视觉目标达到、视频演示模仿、学习新概念和满足安全限制。作为一个开源项目,VIMA提供了代码、预训练模型、数据集和物理模拟基准,无需付费或填写表格,便于用户使用和开发。
LangPort是一个开源的大型语言模型服务平台,旨在提供超快的LLM推理服务,支持Huggingface transformers及多种语言模型,具有易于扩展的特性。
MuJoCo系统辨识助手是一个专注于已知模型结构的机械系统的实用工具,利用Levenberg-Marquardt非线性最小二乘法等先进技术,帮助用户高效估计结构化模型中的参数,从而简化机器人系统的辨识过程。