GradientJ旨在使NLP应用更易获取,提供创建、微调和管理NLP应用的综合解决方案,充分利用大语言模型的能力。
Swift Security是一个统一的AI安全平台,通过公共、私有和自定义的大语言模型积极保护用户、开发者和应用程序。
LangChain是一个先进的AI工具,旨在增强大型语言模型(LLM)应用的开发和部署。它为开发者提供了一个强大的框架,以更高效地构建、监控和部署LLM驱动的应用程序,适用于从初创公司到全球企业的多样化用户,简化AI在业务流程中的集成,提高运营效率,促进上下文感知应用的创建。
CAME(Confidence-guided Adaptive Memory Optimization)是一个旨在通过信心引导机制来优化模型内存使用的项目,提升大语言模型的性能。
该团队专注于金融领域的强化学习(RL)和大语言模型(LLM)的应用,提供数据收集和量化分析的工具和资源。
EricLLM是一个快速批处理API,旨在为各种大语言模型提供高效的服务,支持多种模型配置和资源管理,方便用户进行批量文本处理和集成到现有应用中。
大语言模型自我纠错相关论文的精选集合,涵盖内在自我纠错、外部工具辅助纠错、信息检索辅助纠错等多个研究方向,包含详细的论文分类和引用信息,是研究LLM自我纠错能力的重要参考资源
StyleLLM文风大模型是一个文本风格迁移项目,基于大型语言模型,提供四个经过中国四大名著训练的模型,能够支持多种文本风格的转换,适用于各种语言处理场景。
The Pipe 是一个多模态工具,旨在将现实世界的信息输入到大语言模型中。它采用多核设计,并通过精心设计的启发式方法,从各种来源(如文件、文件夹、网页等)创建有意义的文本和图像提示,提升信息处理的效率和质量。
这是一个精心策划的阅读列表,专注于机器心智理论的最新进展,基于EMNLP 2023年关于大语言模型中情境心智理论的论文构建。
FATE-LLM是基于FederatedAI开发的联邦学习框架,支持大语言模型的分布式训练,旨在促进AI技术在保护知识产权和隐私的前提下的应用。该项目通过联邦学习架构,使得多方在不共享原始数据的情况下,能够协同训练出高效的AI模型,有效应对数据隐私和合规性挑战。
LLMTuner是一个高效的工具,旨在通过简化的微调流程,使用户能够在几行代码内调整大语言模型(LLM)。它支持多种预训练模型的加载和微调,提供灵活的超参数调整功能,同时拥有友好的用户界面,便于用户快速上手。该项目的可扩展性强,适用于不同的应用场景。
一个用于搭建类似Perplexity的问答引擎的项目,结合了多种先进的技术和模型。
DriveLM是一个基于大语言模型的无人驾驶推理系统,能够高效处理多种驾驶场景和任务,并支持自然语言理解和生成。它可与多种传感器和系统集成,以增强无人驾驶汽车的智能化水平。
LaWGPT是一个专注于法律领域的AI模型,旨在为用户提供专业的法律咨询和顾问服务。它通过大规模的中文法律语料进行预训练,增强了对法律术语的理解,能够有效回答法律相关的问题,帮助用户理解法律条款与法规,并为法律从业者提供快速的信息检索支持。
该项目总结了大语言模型的微调技术,探讨了指令微调和对齐微调的方法,旨在提升模型在特定任务上的表现。
Semantic Kernel 是一个轻量级的开源框架,通过 Semantic Kernel 您可以快速使用不同编程语言(C#/Python/Java)结合 LLMs(OpenAI、Azure OpenAI、Hugging Face 等模型)构建智能应用。
Xorbits Inference(Xinference)是一个性能强大且功能全面的分布式推理框架,可用于大语言模型(LLM)、语音识别模型、多模态模型等各种模型的推理,支持多种模型组合,兼容GGML,简化大规模模型的服务过程,甚至可在笔记本电脑上使用。
Web LLM 工具可以将大语言模型直接在浏览器中运行,并且通过 WebGPU 加速,支持多种模型。
LLaMA是Facebook研究开发的一款先进语言模型,旨在处理多种自然语言处理任务,声称在性能上优于GPT-3。它具备高质量文本生成能力,支持多种规模以满足不同的部署需求,同时采用高效的训练技术,能够先进地处理上下文信息。