OpenHealth是一个AI医疗框架,能够解析医院的检查报告,并根据用户的个人资料制定个性化的健康计划。该项目支持多种输入源如血液检查结果、体检数据及家族遗传病史,使用多种AI模型(如llama, DeepSeek-V3, GPT, Claude, Gemini)提供精准的健康咨询与建议。
KitchenAI提供了一种无缝的方式,将AI代码转化为生产就绪的API,旨在为AI开发者和应用开发者提供便利。用户只需将其AI技术与KitchenAI的API集成,即可轻松创建、测试和部署。
Pebble AI是一个智能伴侣,旨在通过主动阅读、观看和记忆来提高学习效率。它提供嵌入式问题、网络高亮和笔记、文档问答、观看YouTube视频时的问题、间隔重复的AI测验以及AI维基百科等功能,帮助用户更好地吸收信息并加深记忆。
《自然语言处理:基于预训练模型的方法》随书代码,提供多种基于预训练模型的自然语言处理方法,支持文本分类、命名实体识别、问答等任务,包含详细的使用示例和文档,易于扩展和集成到其他项目中。
一个开源免费的 GPT 模型提示集合项目,包含多种用于 GPT 任务的提示,适合进行创意探索或对话/文本灵感的获取,能够提高 GPT 的使用效率和实验效果。
出门问问提供的超大规模语言模型,基于其通用的表示与推理能力,支持多轮交互,能够大幅度提高生产效率和数据处理能力,被广泛应用于问答系统、自然语言处理、机器翻译、文本摘要等领域
LangChain是一个用于构建基于大型语言模型(LLM)应用的框架,它简化了复杂任务的实现,并支持多种集成和扩展。
Frame Semantic Transformer是一个基于T5模型的框架语义解析器,利用FrameNet进行深度语义分析,支持多种自然语言处理任务,具备灵活的模型训练和微调能力,能够高效地进行推理。
ReaderLM-v2是一款增强文本理解能力的语言模型,支持多种语言,能够快速响应并高效提取信息。
长颈鹿版LongLLaMA是一个专门针对上下文长度达到100K的情况下,保持模型性能的研究项目。它提出了一种新的训练目标,以有效处理长文本中的相关与无关的key-value空间结构,从而解决模型的分心问题,确保在处理超长文本时的高效性和准确性。
一个开源库,用于自然语言处理(NLP)中的预训练模型,支持多种任务,如文本分类、文本生成、问答等。
TigerBot 是一个基于 BLOOM 的多语言多任务大规模语言模型(LLM),在模型架构和算法上进行了多项优化,旨在提供高效的自然语言处理能力,支持多种语言和任务,具有强大的可扩展性。
BMTools是面壁智能开发的一个大模型工具学习平台,专注于问答系统的构建和训练,填补了国产大模型在该领域的空白,支持多种中文应用。
由百川智能开发的一个开源可商用的大规模预训练语言模型,支持中英双语,基于Transformer结构,训练于约1.2万亿tokens,具有70亿参数,提供4096的上下文窗口长度,在标准的中文和英文权威benchmark(C-EVAL/MMLU)上均取得同尺寸最好的效果。
基于MindSpore的易于使用和高性能的自然语言处理(NLP)和语言模型(LLM)框架,与Huggingface的模型和数据集兼容,支持多种NLP任务。
transformers_zamba2是一个为自然语言处理打造的先进工具库,提供数千个预训练模型,支持文本分类、问答、翻译等多种语言任务,让NLP技术更易用。该库不仅可以处理文本数据,还支持视觉和音频模态,适用于多种应用场景。
轩辕模型是一种开源的自然语言处理模型,旨在提供高效的文本生成和理解能力,支持多种语言,并可定制化模型参数,适用于多种文本处理任务。
DeepSeek LLM是一款拥有670亿个参数的先进语言模型,通过庞大的包含2万亿标记的数据集在英语和中文上进行了从零开始的训练,旨在提供高质量的自然语言处理能力。
PatrickStar使得更大、更快、更环保的预训练模型在自然语言处理领域成为可能,推动AI的普及。
Baichuan-13B 是由百川智能继 Baichuan-7B 之后开发的包含 130 亿参数的开源可商用的大规模语言模型,在权威的中文和英文 benchmark 上均取得同尺寸最好的效果。
Anima是第一个开源的基于QLoRA的33B中文大语言模型,旨在支持大规模中文处理,促进社区参与与贡献,具备高效的模型训练与推理能力。
Haystack Cookbook是一个使用Haystack进行自然语言处理的示例集合,提供如何结合不同的模型提供者、向量数据库、检索技术等的指导。大多数示例展示特定小型演示,旨在帮助用户快速上手和扩展他们的NLP项目。
该项目汇集了多个开源的中文预训练语言模型及其对应的指令数据集,旨在为中文自然语言处理提供丰富的资源。
阿里通义千问开源了14B模型(之前已开源7B),旨在提供高效的自然语言处理能力,支持多种任务并兼容多种开发环境,拥有友好的用户接口,适合广泛的应用场景。
Nanbeige-16B(南北阁-16B)是南北阁大模型实验室研发的160亿参数规模的大语言模型,采用了2.5T Tokens进行预训练,数据包含大量互联网高质量语料、各类书籍、代码等领域脱敏文本,在各个权威测评数据集上都取得了不错的效果。本次发布包含有 Base、Chat 以及扩展上下文长度的 Base-32k、Chat-32k 版本。
ERNIE是百度于2020年开源的生成式模型,旨在通过深度学习技术提高自然语言处理的能力。
Qdrant向量搜索引擎示例和教程集合,提供了一系列使用Qdrant和相关技术的教程、演示和使用指南。
基于预训练语言模型的零样本和少样本NLP的教程,提供了一系列的示例和实用工具,用于帮助研究人员和工程师理解和应用这些技术。
Graph4NLP是一个库,旨在简化图神经网络在自然语言处理中的应用,支持多种任务和模型的灵活使用。
TaiChi是一个开源库,专注于少样本学习,可以支持多种自然语言处理任务,具有灵活的API设计和强大的可扩展性,适合研究者和开发者使用。