TigerBot 是一个基于 BLOOM 的多语言多任务大规模语言模型(LLM),在模型架构和算法上进行了多项优化,旨在提供高效的自然语言处理能力,支持多种语言和任务,具有强大的可扩展性。
DeepSeek-R1 是一个能够全面与 OpenAI-o1 竞争的大型模型,具有强大的性能表现。
本项目对大型语言模型在不同自然语言处理任务中的提示工程方法进行了调查,展示了如何在不需要大量参数重训练或微调的情况下,增强模型能力,并使非深度学习背景的用户能够与大型语言模型进行交互。同时总结了基于NLP任务的各种提示技术,并分析了在不同数据集上的性能表现。
GPT-2 是 OpenAI 发布的一个强大的自然语言处理模型,能够执行多种任务,如文本生成、翻译、摘要和问答等。
一种将人类语言转化为机器人技能合成奖励的方法,通过理解任务描述来训练机器人执行相应的技能。
MPT-30B是MosaicML刚刚发布的一种强大模型,具备8K的上下文理解能力,专门设计用于聊天应用,适合多种自然语言处理任务。
这是2022搜狐校园算法大赛NLP赛道第一名的开源方案,包含实验代码,旨在提供高效的自然语言处理解决方案。该项目经过优化,能够支持多种数据预处理方式,并提供详细的实验结果和分析,帮助用户更好地理解和应用自然语言处理技术。
Biblos项目利用最新的自然语言处理技术,提供圣经段落的语义搜索和自动摘要生成功能,帮助用户更好地理解和探索圣经内容。
GPT-4 是一种多模态生成的人工智能系统,具备写代码、数学能力以及与世界和人类交互的能力。
从零开始构建自己的大型语言模型,提供详细教程和代码实现,覆盖编码、预训练和微调过程,适用于对自然语言处理和人工智能领域感兴趣的开发者和研究者
哈佛大学出品的新论文,旨在提升LLM在TrucefulQA数据集上的正确率。该项目通过改进模型的输出和修正机制,使得大型语言模型在处理特定数据集时表现更佳。
WrenAI提供了一个自然语言界面,使用户通过问题而不是编写SQL来更快地获取结果和见解。它可以将自然语言转换为SQL查询,提高数据查询的效率和准确性,支持多种数据库,并提供用户友好的界面和可定制的查询选项。
Google DeepMind的这篇新论文提出了一种方法,名为“通过提示进行优化”(OPRO)的简单而有效的方法,利用语言大模型(LLM)作为优化器,其中优化任务以自然语言描述。
PatrickStar使得更大、更快、更环保的预训练模型在自然语言处理领域成为可能,推动AI的普及。
大型语言模型显著推动了自然语言处理领域的发展,引发了人们对利用其潜力处理各种自然、社会和应用科学领域中特定任务的极大兴趣。
Hugging Face生态(Transformers, Datasets, Tokenizers, and Accelerate等)使用教程,旨在帮助用户掌握各种工具和库,提供实践示例和交互式学习体验,适合不同水平的开发者。
一个包含与新冠疫情相关的自然语言处理论文的列表,致力于帮助研究者和从业者获取最新的研究成果和信息。
Anima是第一个开源的基于QLoRA的33B中文大语言模型,旨在支持大规模中文处理,促进社区参与与贡献,具备高效的模型训练与推理能力。
NLP-Papers是一个自然语言处理入门阅读列表,包含了在开始学习自然语言处理时需要关注的论文和书籍。该项目提供了核心论文的推荐、相关书籍及资源的整理,并且分类清晰,便于查找,同时会定期更新,反映最新的研究动态。
一个用于语言信息思维的计算框架,通过概率程序与自然语言相结合,破解世界模型。
这是一个为自然语言处理初学者设计的教程,提供了基础知识、常用工具和实践项目,帮助新手快速入门NLP领域。
InternLM-20B是一个由上海人工智能实验室与商汤科技联合香港中文大学和复旦大学开源的模型,拥有200亿参数,性能在众多维度上超越当前主流模型,旨在推动自然语言处理技术的发展与应用。
TokenLearn 静态词嵌入:一种预训练模型2Vec的方法,专注于提升自然语言处理中词嵌入的静态特性,使其更适用于各种下游任务。
NLP-Knowledge-Graph项目致力于将自然语言处理、知识图谱和对话系统三大技术进行深度研究与应用。该项目不仅支持构建和优化对话系统,还提供多种数据处理与分析工具,具备强大的可扩展性,允许用户自定义模块,并支持多语言处理,满足不同领域的需求。
该项目旨在通过研究自然语言处理中的组合泛化,提供有效的模型和方法,以提升NLP任务的表现。
NLP-Paper项目专注于自然语言处理中的对话语音领域,系统整理相关论文并附上阅读笔记,复现相关模型及提供数据处理工具,旨在帮助研究者更好地理解和应用该领域的知识。
langchain-ChatGLM是一个用于处理自然语言处理任务的项目,允许通过语义匹配和上下文管理来优化对话系统的表现。该项目支持将原文划分为单句进行处理,基于提问语义进行单句匹配,同时具备上下文管理功能,结合单句前后文本进行分析,并可通过chunk_size限制上下文长度。
TaiChi是一个开源库,专注于少样本学习,可以支持多种自然语言处理任务,具有灵活的API设计和强大的可扩展性,适合研究者和开发者使用。
Kogito是一个专注于自然语言处理中的常识推理的工具包,集成了多种推理算法,并提供易于使用的API,支持自定义知识库,使得用户能够灵活地进行知识推理任务。
ApyHub是一个为开发者和团队提供强大实用API的平台。开发者可以从目录中发现、测试和管理API,找到最适合自己应用的API,并将其集成到项目中。