在这篇论文中,研究人员修改了Chinchilla扩展定律,以计算最佳的LLM参数数量和预训练数据大小,以训练和部署具有给定质量和推理需求的模型。
CodeTF是Salesforce出品的一站式代码类LLM工具库,提供了一套统一的接口用于Code LLM的训练、推导和微调,支持多种模型,易于扩展和集成。
Void是cursor的一个开源替代,使用AI工具写代码,对数据有完全的控制,支持对接不同的LLM大模型,能够索引本地文件,变成AI搜索引擎。
这是一个在 LLM 中推进提示功能的框架,超越了思维链或思维树等范式所能提供的能力。通过将 LLM 生成的信息建模为任意的图形结构,GoT 提炼整个思维网络的实质,增强思维能力。
LLM-Agent-Survey是一个关于基于大型语言模型(LLM)的自主智能体的文献资源集,汇聚了最新的研究和应用,提供详细的文献综述与分析,支持多种LLM模型和框架的比较,包含自主智能体的设计与实现示例。
DeltaPapers集中于预训练模型参数高效方法(Delta Tuning)的重要文献,涵盖最新研究进展,提供每篇论文的摘要和链接,便于用户查找相关领域的关键文献。
AgentBench是一个多维演进基准,评估语言模型作为Agent的能力,包含8个不同环境,专注于LLM在多轮开放式生成场景中的推理和决策能力。
一个用于评估奖励模型和LLM裁判的基准测试,帮助在大规模LLM训练和评估中复制人类偏好,包含真实的人类偏好数据和可验证的正确性偏好数据。
一个新的LLM训练方法,通过将训练分散到不同的边缘设备上以保持数据隐私,同时最大化利用边缘设备的算力。
Claude 3.5 Sonnet 是一种结合动态思维链、反思和口头强化等技巧的语言模型,旨在提高测试时间计算能力,匹配 OpenAI o1 等推理能力强的模型。
一个用于文档级翻译的项目,基于大型语言模型(LLMs)进行实现,并进行了一系列实验以评估其性能。