LLMTuner是一个高效的工具,旨在通过简化的微调流程,使用户能够在几行代码内调整大语言模型(LLM)。它支持多种预训练模型的加载和微调,提供灵活的超参数调整功能,同时拥有友好的用户界面,便于用户快速上手。该项目的可扩展性强,适用于不同的应用场景。
Punica 是一个工具,旨在将多个经过 LoRA 微调的语言模型整合在一起,简化管理和调用,提供灵活的模型组合和优化的性能响应。
Fine-tune Phi-2是一个用于对Phi-2模型进行微调的项目,包含使用QLoRA技术进行微调、创建合成对话数据集以及支持多个GPU并行训练的功能。该项目提供了详细的示例代码和文档,允许用户灵活配置训练参数,以便优化模型的表现。
FeatUp是一个模型无关的框架,可支持在任意分辨率下提取特征,适用于多种模型和领域的特征分析。
人工智能工作室是一个用户友好的网页应用,旨在简化超参数调优这一通常令人头疼的任务。它提供了一个直观的用户界面,允许用户轻松尝试不同的超参数,从而优化他们的模型。
LLMChat是一个全栈Web界面的实现,支持多种大型语言模型,如ChatGPT或LLaMA,旨在提供用户友好的互动体验。它允许用户进行实时对话,并具备可定制的模型参数,方便多种部署选项。
AutoGPT.js 是一个可以在浏览器中运行的 Auto-GPT 项目,支持多种自然语言处理任务,提供用户友好的界面和实时交互体验。用户可以自定义设置和参数,以满足特定需求。
ChattyUI是一个开源且功能丰富的界面,类似于Gemini和ChatGPT,可以在浏览器中使用WebGPU本地运行开源模型(如Gemma、Mistral、LLama3等)。该项目不需要服务器端处理,确保您的数据始终保留在个人电脑上。
Meta 的应用强化学习团队带来了可投入生产的强化学习 AI 代理库,支持多种算法和高效的样本利用率,适用于不同的应用场景。
Anyscale是一个统一的计算平台,旨在利用Ray简化可扩展AI和Python应用的开发、部署和管理。用户可以轻松地开始使用Anyscale端点进行服务和微调开源大型语言模型(LLMs)。
《解构大语言模型:从线性回归到通用人工智能》配套代码,提供了大语言模型的实现与分析,展示了线性回归与语言模型之间的关系,并支持多种数据集与训练配置,易于扩展与自定义。
Sulie 提供对基础模型的访问,专注于时间序列预测,支持零样本预测和自动微调,旨在提升预测准确性并简化模型管理。
NoDress.io是一个利用人工智能技术,从穿衣照片中生成女性裸体图像的平台。该服务采用先进的算法,通过数字化去除图像中的衣物,创建逼真的表现。
AI to Data 是一个由人工智能驱动的数据生成器,允许用户为任何用例生成真实数据。它采用先进的AI技术生成可靠和安全的数据。用户只需注册或登录平台,提供自然语言查询以指定所需数据类型和行数,系统将生成请求的数据,用户可以以CSV文件格式下载。
Graduate-Level Google-Proof Q&A Benchmark,是一个评估大型语言模型和可扩展监督机制能力的高难度数据集,包含448道选择题,旨在测试专家的准确率。
Segment Anything Fast 是一个面向批量离线推断的高效图像分割工具,基于PyTorch实现,旨在提供快速、便捷的图像分割解决方案,适合在本地环境中使用。
Mamba训练库,支持PyTorch FSDP分布式训练、混合精度训练、V100和A100转换为HF transformers、检查点连续预训练Mamba模型以及指令调整Mamba模型等功能
一种快速模仿学习工具,通过图扩散技术实现即时策略生成,帮助机器人快速学习新任务