深言科技联合清华大学NLP实验室开源的语鲸-8B模型,其能力大致介于ChatGLM2和3之间。该模型支持多种自然语言处理任务,适用于各种应用场景。
在ESP32微控制器上运行大型语言模型(LLM),探索其在资源受限环境下的可能性,特色包括使用tinyllamas模型和对llama.2c的优化以提高性能。
LeNLP是一个为Python开发的自然语言处理工具箱,旨在通过Rust优化提升性能,集成高性能并行化功能,从而简化Python中的各种NLP任务。
本项目基于Meta发布的可商用大模型Llama-2开发,开源了中文LLaMA-2基座模型和Alpaca-2指令精调大模型。这些模型在原版Llama-2的基础上扩充并优化了中文词表,使用了大规模中文数据进行增量预训练,进一步提升了中文基础语义和指令理解能力,相比一代相关模型获得了显著性能提升。相关模型支持4K上下文并可通过NTK方法最高扩展至18K+。
这是2022搜狐校园算法大赛NLP赛道第一名的开源方案,包含实验代码,旨在提供高效的自然语言处理解决方案。该项目经过优化,能够支持多种数据预处理方式,并提供详细的实验结果和分析,帮助用户更好地理解和应用自然语言处理技术。
一个包含多种自然语言处理教程的项目,涵盖了Transformer等模型的实现和应用。
Boogie是一个平台,允许用户使用大型语言模型(如GPT-4)测试、部署和管理自然语言处理应用程序,帮助开发者高效构建强大的NLP应用。
这个开源项目的目的是模拟 openai api 并将其移植到手机端,使得用户可以更方便地利用该功能,实现物尽其用的效果。
Auto-GPT-ZH是中文版AutoGPT,旨在提供一个中文环境下的自动化GPT应用,支持多种API扩展,用户可以自定义任务和目标,具有高效的文本生成和对话能力,界面友好,适合各种中文场景的应用。
LLM Playground 是一个让用户可以免费测试多种大型语言模型的在线平台。用户可以在该平台上探索和比较不同的语言模型,进行自然语言处理相关的实验和应用,帮助开发者和研究人员了解和评估各种模型的性能与特点。
MiniRBT (中文小型预训练模型) 是由iFLYTEK开发的一个小型中文预训练模型,旨在提供高效的自然语言处理能力。
基于GPT-2模型的中文文本生成项目,旨在为中文自然语言处理提供强大的文本生成能力,支持预训练和fine-tuning,适用于多种场景,如创作、对话等。
Embedditor 是一款先进的 AI 工具,旨在通过嵌入优化提升向量搜索的能力,类似于嵌入领域的 Microsoft Word。该工具为专业人士和开发者量身定制,提供强大的元数据和令牌增强功能,帮助用户提升大型语言模型(LLM)应用的效率和准确性。
TextSynth 提供对大型语言模型和文本到图像模型的访问,如 Llama2、Falcon、GPT-J、GPT-NeoX 等,用户可以通过 REST API 或者友好的操作界面进行文本补全、问答、分类、聊天、翻译和图像生成等多种任务。
H2O LLM Studio是一个用户友好的图形界面工具,允许用户轻松微调大型语言模型(LLM),无需编程技能。
DeepSeek是一家专注于人工智能技术研发的公司,其推出的DeepSeek-R1等模型以低成本、高性能的特点颠覆了传统AI赛道的技术逻辑,打破了对高性能芯片的依赖,展现了强大的语言理解、生成和推理能力。
ClusterTransformer是一个基于Transformer嵌入的主题聚类库,能够有效地对文本数据进行主题聚类,使用余弦相似度进行相似性度量,兼容所有来自Hugging Face的BERT基础模型,并支持多种文本数据格式,便于集成和使用。
WordLlama是一个快速、轻量的自然语言处理工具包,能够处理模糊去重、相似度评估和排名任务,优化了CPU硬件并且具有最小的推理时间依赖性。