这是一个在 LLM 中推进提示功能的框架,超越了思维链或思维树等范式所能提供的能力。通过将 LLM 生成的信息建模为任意的图形结构,GoT 提炼整个思维网络的实质,增强思维能力。
本文评估了LLM自动生成特征归因解释的能力,研究不同方式触发自我解释的可信度,并与传统解释方法进行了比较。
用于 LLaMA 3 8B 参数版本的轻量级 CUDA C 语言实现的推理引擎,旨在在 Nvidia GPU 上进行高效的并行处理。该项目旨在充分利用 Nvidia GPU 的性能,以提供快速的模型推理,并易于集成到现有的机器学习工作流中。
在这篇论文中,研究人员修改了Chinchilla扩展定律,以计算最佳的LLM参数数量和预训练数据大小,以训练和部署具有给定质量和推理需求的模型。
Focused Empathy项目专注于通过理解情感原因来生成同理心回应,旨在提升对话中的情感交互。
llama2.go是一个基于LLAMA-2模型的纯Go语言实现,提供高性能的机器学习功能,易于集成,支持多种数据格式,适合在Go项目中使用。
AgentBench是一个多维演进基准,评估语言模型作为Agent的能力,包含8个不同环境,专注于LLM在多轮开放式生成场景中的推理和决策能力。