llamafile项目旨在通过创建一个单一的文件,简化大型语言模型(LLM)的分发和运行过程。用户可以在大多数计算机上本地运行这些模型,无需任何安装,从而保证数据隐私性,所有处理都在本地完成。该项目结合了llama.cpp与Cosmopolitan Libc,支持多个操作系统,致力于实现AI开发者的‘一次构建,随处运行’的梦想。
一个自托管的 GitHub Copilot,GitHub Copilot 的开源/本地替代方案,旨在提供灵活的开发体验。它可以在本地运行,无需依赖外部数据库或云服务,同时具备可视化界面和强大的API接口,方便集成到现有开发环境中。
只需450美元就能训练自己的o1 preview模型,为开发者提供低成本、高效能的AI模型训练方案,助力AI创新与应用
LLime通过深入理解企业数据,设计个性化的AI助手,帮助提升团队生产力,推动数据驱动决策。
这是一个完整的管道,用于在消费硬件上使用LoRA和RLHF微调Alpaca LLM。基于Alpaca架构实现人类反馈的强化学习(RLHF),基本上是ChatGPT的一个变体,但使用的是Alpaca。
ExLlamaV2是一个高效的推理库,旨在让用户能够在现代消费级GPU上本地运行各种大型语言模型(LLMs),并优化内存使用,以实现快速推理。
OneDiff 是一个用于提升 Stable Diffusion 和 Stable Video Diffusion 性能的工具,提供社区版和企业版,支持多种硬件加速,能够显著提高计算速度和图像生成效率。它适用于机器学习、图像处理和数据分析等多个领域,支持多种模型和场景的实时生成与修改。
Netmind Power是一个分布式平台,利用用户提供的GPU构建去中心化的计算网络,以降低机器学习模型训练的成本,提升训练效率。通过这种方式,用户可以更智能、更快速地进行模型训练,助力机器学习项目的成功。
Salad 是一个提供超过10,000个GPU的云平台,专为生成式AI设计。它允许用户节省高达90%的云计算费用,并轻松部署AI/ML生产模型。用户可以通过注册账户、选择资源、容器化应用程序,Salad将管理其余的操作。
MLX 是 Apple 芯片上用于机器学习的阵列框架,由 Apple 机器学习研究团队提供。它提供了熟悉的 API 和强大的功能,支持多种计算模式和设备,旨在简化机器学习模型的构建与训练。
llama-node是一个基于Node.js的项目,旨在提供对LLaMA和Alpaca语言模型的支持。该项目允许用户在本地CPU上高效运行这些模型,适合个人计算机使用。它基于llama-rs构建,旨在促进AI技术的民主化,使更多开发者能够轻松访问和使用大语言模型。
Sparse-Marlin是一个优化工具,专为4bit量化权重的2:4稀疏性推理核设计,旨在提升深度学习模型的计算效率和存储效率,适用于各种深度学习应用。
Tricksy是一款支持在单个GPU上进行快速推理的工具,利用稀疏感知卸载技术来提高推理效率和速度,同时优化资源使用,适用于深度学习模型的多种场景。
AnyCores 是一个深度学习编译器,旨在通过优化深度神经网络的性能来降低计算成本,提供超过10倍的加速效果。
Inference.ai是一个前沿的GPU云服务提供商,专注于为需要强大计算能力的企业和个人提供可扩展、经济高效的GPU云,消除物理硬件管理的负担。
Seamless Studio是全球首个高端AI模型生成器,允许用户利用AI技术创建高质量原创模型。
Monster API 是一个由AI驱动的工具,旨在为开发者提供无缝访问各种强大生成AI模型的能力,通过自动扩展的API简化REST API的集成,支持CURL、Python、Node.js和PHP等多种开发栈,免去复杂的管理需求。
Kokoro-FastAPI是一个基于Docker的FastAPI包裹,用于Kokoro-82M文本到语音模型的部署,支持NVIDIA GPU和CPU ONNX加速推理,具备自动分割和拼接功能,旨在提供高效、灵活的语音合成服务。