基于模块化构建和敏捷部署的RAG系统框架,旨在通过自动化的 '数据构建 - 模型微调 - 推理评估' 知识适应技术系统,为研究人员和开发者提供一站式的解决方案。
AutoRAG 是一个自动评估多种 RAG 模块的工具,旨在找到最适合你数据的方案,通过一键优化 RAG 流程,提升效率。
在部署语言模型前,评估其在特定领域生成事实性信息的能力很重要。我们提出了方法,通过语料库转换自动生成,以评估模型从语料库生成真实事实而非不正确陈述的能力。我们创建了两个基准,并发现基准分数与模型大小和检索增强相关,但在模型排名上并不总是与困惑度一致。
META发布的综合性RAG基准测试工具,专门用于评估检索增强生成(RAG)系统的性能。
PromptPerfect是一个创新的AI工具,旨在革命性地改变生成和优化各种AI应用的提示方式。它通过简化创建高度有效和定制化提示的任务,帮助内容创作者、市场营销人员和开发人员提升AI模型的性能。
企业级Agentic RAG的简易使用方式,支持本地云基础设施部署,基于LlamaIndex构建,提供易于配置的Admin UI和API接口
SciBench旨在评估语言模型在复杂科学问题解决中的推理能力。通过开放和封闭数据集的深入基准测试,研究发现当前的语言模型在整体性能方面表现不佳,仅得到35.80%的分数。
提供ChatGPT中文调教的详细指南,帮助用户更好地使用该模型。
一个从零开始构建的LLM驱动的高级RAG管道,旨在揭示高级RAG管道的内部运作,审视通常不透明的机制、局限性和成本。
siliconflow提供 DeepSeek R1、OpenAI o1、GPT-4o、Claude 3.5 和 Gemini 1.5等领先大模型