META发布的综合性RAG基准测试工具,专门用于评估检索增强生成(RAG)系统的性能。
RQABench是一个开源的检索问答基准工具,旨在评估检索增强生成(RAG)系统,具有灵活性、可复现性和可追溯性等特点,支持多种RAG模型的评估并提供标准化的基准测试。
RAG-Survey系统收集和分类与RAG相关的学术论文,涵盖基础理论、方法分类和应用领域,为AI内容生成提供全面的研究视角,帮助研究者深入了解RAG技术的发展和应用。
SOMA是一个平台,通过开放获取期刊的数据库,利用最新的人工智能技术,快速揭示因素与医疗条件之间未记录的路径,并构建知识图谱以加速搜索。
基于模块化构建和敏捷部署的RAG系统框架,旨在通过自动化的 '数据构建 - 模型微调 - 推理评估' 知识适应技术系统,为研究人员和开发者提供一站式的解决方案。
AutoRAG 是一个自动评估多种 RAG 模块的工具,旨在找到最适合你数据的方案,通过一键优化 RAG 流程,提升效率。
这个开源项目将GraphRAG与Ollama本地LLM结合,并提供可视化的知识图谱UI和监控。
siliconflow提供 DeepSeek R1、OpenAI o1、GPT-4o、Claude 3.5 和 Gemini 1.5等领先大模型