Composable Prompts是一个顶尖平台,旨在快速构建、测试和部署基于大型语言模型(LLMs)的任务和API。它为LLMs的世界带来了组合、模板、测试、缓存和可视化等功能,使开发者能够高效地创建强大的提示,重用它们,并在不同环境中进行测试。同时,它通过智能缓存优化性能和成本,并允许轻松切换模型和运行环境。
GradientJ旨在使NLP应用更易获取,提供创建、微调和管理NLP应用的综合解决方案,充分利用大语言模型的能力。
Zenbase Core是一个专为软件工程设计的自动化提示工程库,旨在将斯坦福NLP的DSPy项目研究成果转化为实际工程需求,帮助开发者在生产环境中高效部署和优化提示功能。
Prompt Manager Pro 是一款用于编写和维护现代应用提示的工具,帮助用户轻松开发、测试和集成提示模板。
本项目提供与大型语言模型(如OpenAI的GPT-4)互动的技巧和窍门,帮助用户设计有效的提示,并优化模型的响应质量。
Zeno Build旨在帮助开发人员快速构建、比较和迭代使用大型语言模型应用的工具,提供简单的代码示例和实验管理功能。
CodeGPT.nvim是一个用于Neovim的插件,提供与ChatGPT进行交互的命令,可以生成代码片段并进行调试。
LMDeploy是一个用于压缩、部署和服务大型语言模型(LLM)的工具包,旨在提供高效、简便的解决方案,支持多种LLM任务,满足不同硬件平台的需求。
只依赖pytorch、transformers、numpy、tensorboardX,专注于文本分类、序列标注的极简自然语言处理工具包
llm-chain是一个强大的Rust库,用于构建大语言模型中的链,能够高效地进行文本摘要和处理复杂任务。
LLM Compressor是一个大型语言模型压缩库,利用领域内最新技术和研究,支持训练中和训练后的压缩技术。该库设计灵活易用,与PyTorch和HuggingFace Transformers兼容,便于快速实验和模型优化。
CopilotKit是一个将应用程序与大型语言模型(LLMs)连接的工具,提供强大的AI产品集成,转化为可即插即用的React组件,支持开源和完全自定义。
VLLM是一个高效的语言模型的推理框架,旨在简化大规模语言模型的部署和推理过程。它支持多种语言模型的快速加载与使用,并提供高效的批处理推理功能,同时支持动态分配硬件资源以优化性能。VLLM内置多种优化算法以提高推理速度,并提供详细的性能监测和调试工具。
一个集合了优秀 GPT 提示的项目,旨在帮助用户更好地利用 GPT 技术。该项目提供了多种高质量的提示,支持不同场景的应用,易于使用和集成,并且是开源的,欢迎贡献和讨论。
为视觉-语言模型(例如CLIP)提供精心策划的Prompt/Adapter学习方法列表,包含最新的研究进展和代码实现,促进模型的高效学习和应用
TensorZero是一个开源基础设施,旨在支持生产级、可扩展和复杂的大型语言模型(LLM)系统。它集成了推理、可观测性、优化和实验功能,支持多步骤LLM系统,并通过ClickHouse数据仓库实现实时、可扩展且开发者友好的分析。
LLMPlus是一个Python包,旨在帮助开发者使用本地的大型语言模型(LLMs)来构建AI应用。它提供了简洁的接口,以便进行提示工程,支持加载LLM模型、嵌入模型和向量数据库的类。通过自定义提示工程和RAG技术,开发者可以轻松创建LLM应用。
Sierra是一个专为企业设计的对话式AI平台,旨在通过智能、富有同理心的AI代理提升客户体验。该平台提供24/7支持,能够处理复杂问题,并通过分析不断优化客户互动。