一个使客户端 CPU 上的 LLM 微调成为可能的开源项目,特别是在没有 GPU 的情况下。
该项目旨在展示如何在中文环境中使用Transformers库进行自然语言处理(NLP)任务,提供了丰富的示例和详细的文档,以帮助用户理解和应用相关技术。
Transformers Notebooks是一组用于自然语言处理的Jupyter笔记本,旨在帮助用户快速上手使用Transformers库,提供丰富的示例和教程,涵盖文本分类、问答、翻译等多种任务,同时支持快速实验和模型评估。
该项目集成了基于 transformers 库实现的多种自然语言处理任务,支持用户使用各种预训练模型,进行文本分类、生成、命名实体识别、机器翻译等操作,并且允许用户自定义数据集,易于使用和扩展。
One-GLM是基于GLM架构的项目,移植到了使用OneFlow后端进行训练,能够大幅提升性能和显存利用率。
Auto-GPT-ZH是中文版AutoGPT,旨在提供一个中文环境下的自动化GPT应用,支持多种API扩展,用户可以自定义任务和目标,具有高效的文本生成和对话能力,界面友好,适合各种中文场景的应用。
这本书的实践代码,旨在帮助读者掌握大型语言模型的使用和应用,提供丰富的示例和深入的讲解,适合各级开发者。
一个包含大约4675本中文科幻小说的语料库,可以用于中文科幻小说的人工智能研究。
LongBench是一个专为中英双语长文本理解而设计的评测基准,支持多种理解任务的评估,并提供标准化的数据集和评测指标,适用于各种长文本处理模型的性能评估。
meta-prompts是一种利用扩散模型处理视觉感知任务的方案,通过引入可学习的元提示到预训练的扩散模型中,以提取适合特定感知任务的特征。该方法旨在提高模型在各种视觉任务中的表现,支持丰富的语义信息提取,满足类别识别、深度感知和关键点感知等需求。
llama-jax是LLaMA的JAX实现,旨在利用Google Cloud TPU进行训练,提供高效、灵活的模型训练解决方案。
NuMind是一个平台,可以教您的AI创建分类器、命名实体识别(NER)模型和结构化提取模型,以满足您的特定需求。这些轻量级模型在信息提取方面表现优异,且成本低于通用模型,可以在私密环境中使用。