用Rust语言开发的语言模型管控框架,其设计目标是提供一个简单易用且易扩展的管控框架,帮助开发者创建语言模型管控应用。
Astra AI使得将任何应用和API与大型语言模型(LLM)进行功能调用的集成变得简单。我们会处理JSON模式和最终用户身份验证的设置。即使您的LLM没有针对功能调用进行微调,我们也可以提供代理集成的方法。
LLMChat是一个全栈Web界面的实现,支持多种大型语言模型,如ChatGPT或LLaMA,旨在提供用户友好的互动体验。它允许用户进行实时对话,并具备可定制的模型参数,方便多种部署选项。
Dynamiq是一个专为Agentic AI和大型语言模型应用设计的AI智能协同框架,旨在简化AI应用的开发过程,擅长协调检索增强型生成与大型语言模型代理,同时支持多种AI技术的集成,提供高效的任务调度和资源管理。
FastLanes是一个高性能压缩库的Rust实现,利用LLVM自动向量化技术实现高效的SIMD解码,旨在满足高性能数据压缩的需求,同时保证安全性和性能。
llama-node是一个基于Node.js的项目,旨在提供对LLaMA和Alpaca语言模型的支持。该项目允许用户在本地CPU上高效运行这些模型,适合个人计算机使用。它基于llama-rs构建,旨在促进AI技术的民主化,使更多开发者能够轻松访问和使用大语言模型。
PyLLMCore是一个提供与大型语言模型轻量级接口的Python库,旨在简化与LLM的交互,使开发者能够轻松集成和使用各种语言模型。
TigerLab是一个开源的LLM(大语言模型)工具包,旨在提供用户友好的接口和功能,帮助开发者轻松构建和部署基于大语言模型的应用程序。它集成了多种强大的功能,包括嵌入技术、模型微调和AI安全性,支持不同使用场景的需求。
API for Open LLMs 是一个为开源大语言模型提供统一后端接口的项目,支持多种开源大模型的调用,旨在简化与大语言模型的交互体验。通过提供类似于 OpenAI 的 API 使用方式,开发者能够更方便地集成和利用大语言模型的能力。
一个用于中文信息抽取的项目,基于LLaMA和Alpaca模型,结合LoRA技术进行微调。该项目旨在提供高效、准确的中文文本处理能力,特别是在命名实体识别(NER)方面,支持多种训练和评估配置,方便用户根据需求进行模型微调与集成。
octox是一个类Unix操作系统,灵感来自xv6-riscv,但完全采用纯Rust实现。从内核、用户空间、mkfs到构建系统,尽可能使用安全的Rust编写,没有依赖外部crate。
SimpleAutomation是一个开源机器人自动化项目,旨在简化重复性任务的自动化过程,提供了一系列基于LeRobot仓库的辅助脚本,支持多模型联动以解决复杂的机器人任务。
该项目旨在为对ARM 64位架构不熟悉的爱好者OS开发者提供在树莓派上使用Rust进行操作系统开发的教程,内容丰富,涵盖了裸机操作系统内核的编写以及嵌入式系统和低级编程的重点概念。
siliconflow提供 DeepSeek R1、OpenAI o1、GPT-4o、Claude 3.5 和 Gemini 1.5等领先大模型