Inferflow是一个高效且高度可配置的大型语言模型推理引擎,旨在优化推理性能,支持多种自定义配置,以满足特定需求。
EET是一个针对大型NLP模型的可扩展推理解决方案,旨在提供高性能的推理支持,特别是针对Transformer结构的大模型,同时支持长序列的场景,易于集成和使用。
StreamingLLM 是一种语言模型,能够顺利处理无尽的文本而不会失去上下文信息流,从而实现与人工智能助手的深度对话和长文本总结。
一个用Rust语言编写的极简语言模型(LLM)推理工具,能够在没有机器学习库的情况下,在CPU上进行完整的语言模型推理,支持多种大型语言模型并具备多模态功能。
CivRealm是一个基于开源游戏Freeciv-web的学习和推理环境,提供了基于强化学习和语言模型的决策智能体接口,以及训练和评估工具和基线模型,旨在成为复杂环境中学习和推理代理的测试平台。
一个开源框架,专为大型语言模型提供高级推理能力,支持数据生成、策略训练和多种搜索策略,让机器更聪明地理解和解决问题。
Xorbits Inference(Xinference)是一个性能强大且功能全面的分布式推理框架,可用于大语言模型(LLM)、语音识别模型、多模态模型等各种模型的推理,支持多种模型组合,兼容GGML,简化大规模模型的服务过程,甚至可在笔记本电脑上使用。
TheB.AI提供多种前沿模型,包括语言模型和图像模型,通过易于使用的界面和统一的API接口访问,支持个性化定制,提升AI体验。
开发一种方法,使大型语言模型(LLM)能够经过深思熟虑的推理过程,纠正错误的反应,从而减少产生幻觉(不真实信息)的可能性。该项目旨在通过分步推理和验证机制,提升LLM的准确性和可靠性。
LLaMA-O1 是一个大型推理模型框架,专为 PyTorch 和 HuggingFace 设计,支持训练、推理和评估。它集成了蒙特卡洛树搜索(MCTS)、自我对弈强化学习、PPO 和类似 AlphaGo Zero 的双策略范式,适用于大型语言模型的开发和应用。
基于ONNX Runtime的Java的Stable Deffusion管线,具有GUI界面和负面文本支持,展示了如何在Java中使用ONNX Runtime进行推理,并提供了性能优化的最佳实践
colima 是一个在mac运行容器运行时(docker和containerd)和k8s的工具,支持 m1芯片。它基于Lima (Linux Machine on Mac) 二次开发,旨在为开发者提供一个更简便的容器和Kubernetes管理解决方案。
用大型语言模型重新思考自动驾驶,使用GPT-3.5作为默认的大型语言模型(LLM),介绍了LLM在驾驶场景中的闭环交互能力以及通过记忆能提升性能的方法
engshell是一个多功能的终端环境,结合了命令行界面的强大与用户友好的特性,适合开发者使用。
GPT4Company是一个请求转发器,用户可以通过配置关键词和API地址,以安全地接入OpenAI,防止敏感信息泄露。该工具提供灵活的设置和多种关键词选项,满足不同公司的需求,同时提供警告信息,以提醒用户潜在的泄密风险。