基于 LLaMA-7B 经过中文数据集增量预训练,旨在提升中文自然语言处理能力。
Qwen2.5是由阿里云Qwen团队开发的超大型语言模型系列,专注于提供智能、易用、decoder only的语言模型,支持多语言和长文本生成。
MiniMax发布的语言模型,4560亿参数,其中每个token激活459亿参数。采用混合架构,结合Lightning Attention、Softmax Attention和专家混合(MoE),能在推理时处理长达400万token的上下文,在多个学术基准测试中表现出色。
MiniGPT-4-ZH 是一款专为中文用户设计的自然语言处理模型,能够高效生成和理解中文文本,适用于多种应用场景,包括对话系统、内容生成、文档翻译等。该模型易于部署,适合开发者和企业快速集成,提升用户体验。
Traditional-Chinese Alpaca是一个基于Alpaca的指令跟随模型,专为繁体中文用户设计,适用于多种自然语言处理任务,能够有效地进行文本生成和对话系统应用。
由vivo AI全球研究院自主研发的大规模预训练语言模型,具有更大量的优质数据、更优的效果及长文本支持。
Nanbeige-16B(南北阁-16B)是南北阁大模型实验室研发的160亿参数规模的大语言模型,采用了2.5T Tokens进行预训练,数据包含大量互联网高质量语料、各类书籍、代码等领域脱敏文本,在各个权威测评数据集上都取得了不错的效果。本次发布包含有 Base、Chat 以及扩展上下文长度的 Base-32k、Chat-32k 版本。
NLP-Knowledge-Graph项目致力于将自然语言处理、知识图谱和对话系统三大技术进行深度研究与应用。该项目不仅支持构建和优化对话系统,还提供多种数据处理与分析工具,具备强大的可扩展性,允许用户自定义模块,并支持多语言处理,满足不同领域的需求。
该项目是Azure OpenAI服务的示例代码库,旨在补充OpenAI的食谱,展示如何使用Azure OpenAI服务,涵盖多种使用场景,如文本生成和对话系统,提供易于理解的文档和示例,支持多种编程语言和框架。
Yi是一系列从零开始训练的大型语言模型,旨在提供高质量的文本生成和对话能力,适用于多种应用场景。
YaLM-100B是Yandex推出的一个开源大型语言模型,参数达到100亿,旨在支持多种自然语言处理任务。它能够生成高质量的文本,并广泛应用于对话系统、文本生成和补全等领域。
这个开源项目是一个基于ChatGPT和OpenAI API的微信聊天机器人,使用itchat实现。