ChatOn是一个先进的AI聊天助手,旨在提升多种写作任务的生产力和创造力,支持文本生成、图像转化、PDF处理等功能,适合个人及专业项目使用。
Storykube 是一个多功能工具,旨在通过利用人工智能提高各类专业任务的生产力。它为文案撰写者、项目经理、商业分析师、设计师、开发人员和翻译人员提供服务,集成了文本生成、图像制作和文档分析等功能,简化工作流程并提升输出质量。
Chatgpt Karfly Bot 是一款在Telegram上可用的免费聊天机器人,支持超过40种AI角色,涵盖所有模式,包括DALL-E 3、Claude 3.5、Sonnet、GPT Vision、GPT-4o等。它是聊天、图像创作和解决各种任务的理想助手。
NeuroGPT 是一个提供免费 API 服务的平台,用户可以方便地访问 GPT-3.5、GPT-4 及其他语言模型。它支持多种自然语言处理任务,并且具有高性能和低延迟的响应时间,适合开发者和企业使用。
Nexa SDK是一款全面支持ONNX和GGML模型的工具包,具备文本生成、图像生成、视觉-语言模型(VLM)、自动语音识别(ASR)和文本到语音(TTS)功能,提供OpenAI兼容的API服务器,支持JSON模式调用函数和流媒体,配备用户友好的Streamlit UI,方便开发者使用和集成。
自然语言处理(NLP)教程,涵盖文本词向量、词法分析、预训练语言模型等常见NLP任务,适合作为入门学习和基线参考。
由字节跳动开发的先进的多模态大型模型,旨在处理涉及文本、图像和视频数据的各种任务,并在电商和短视频基准测试中取得了最佳结果
基于 LLaMA-7B 经过中文数据集增量预训练,旨在提升中文自然语言处理能力。
基于 baichuan-7B 进行多任务有监督微调的开源多模态大语言模型,建立在 Pleisto 的以数据为中心(Data-centric AI)的工作上。羽人在多轮对话、开放域问答、角色扮演、文本生成、文本理解、图片理解等多个任务上均拥有优异的表现。
AndesGPT-7B是OPPO研究院基于Baichuan2项目继续训练得到的70亿参数规模中文语言模型,采用800B中文语料进行微调,能够有效处理多种中文自然语言处理任务。
QA-CLIP是一个支持中文文本和图像的多模态理解的模型,具有最先进的性能和准确性,能够用于多种下游任务,如图像分类、文本生成等,且易于集成和使用。
该项目允许用户在CPU上运行MPT-30B模型的推理,具有低训练和运行成本的特点。用户只需32G内存即可进行模型推理,适合各种文本生成和评估任务。
stable-diffusion-webui的LLaMA版,让你可以通过一个Web界面和本机的LLaMA模型交互,提供本地版的ChatGPT体验。
一个开源库,用于自然语言处理(NLP)中的预训练模型,支持多种任务,如文本分类、文本生成、问答等。
Taiyi是一个经过微调的双语(中文和英文)大型语言模型,专为多种生物医学任务而设计,具备高准确率和多任务处理能力,适用于研究和临床环境。
由百川智能开发的一个开源可商用的大规模预训练语言模型,支持中英双语,基于Transformer结构,训练于约1.2万亿tokens,具有70亿参数,提供4096的上下文窗口长度,在标准的中文和英文权威benchmark(C-EVAL/MMLU)上均取得同尺寸最好的效果。
GPT-2 是 OpenAI 发布的一个强大的自然语言处理模型,能够执行多种任务,如文本生成、翻译、摘要和问答等。
闻达是一个大型语言模型调用平台,支持多种模型如chatGLM-6B、chatRWKV、chatYuan,以及基于chatGLM-6B的chatPDF功能,方便用户进行知识库查询和文本生成。
minGPT-flax是一个基于Flax/JAX的基本变换器实现,旨在支持序列到序列建模,适合初学者和研究人员使用。
Traditional-Chinese Alpaca是一个基于Alpaca的指令跟随模型,专为繁体中文用户设计,适用于多种自然语言处理任务,能够有效地进行文本生成和对话系统应用。
langchain-examples是一个由LangChain LLM框架驱动的应用程序集合,旨在展示其强大功能,涵盖多种使用场景和用例,提供易于扩展和定制的示例,适合快速原型开发和学习。
用纯Pytorch原生实现的RWKV大语言模型的推理框架,提供高效的文本生成和推理功能,适合与PyTorch生态系统的其他工具集成,支持开源社区的贡献和协作。
DeepSeek LLM是一款拥有670亿个参数的先进语言模型,通过庞大的包含2万亿标记的数据集在英语和中文上进行了从零开始的训练,旨在提供高质量的自然语言处理能力。
有关大型语言模型(LLM)约束解码的精选论文列表,包含相关代码和资源,旨在实现更可靠、可控和高效的文本生成。
基于PyTorch的GPT-2模型训练器,优化效率和代码简化,实现现代技术如旋转嵌入,以更少的token达到相同验证损失。该项目专注于提升模型训练的效率,使得用户能够在多种深度学习任务中更便捷地使用GPT-2架构。
PatrickStar使得更大、更快、更环保的预训练模型在自然语言处理领域成为可能,推动AI的普及。
nanoRWKV是RWKV语言模型的轻量级实现,专为快速实验与多种语言处理任务设计,兼容RWKV架构,基于nanoGPT优化了性能和效率,易于扩展和自定义。
Baichuan-13B 是由百川智能继 Baichuan-7B 之后开发的包含 130 亿参数的开源可商用的大规模语言模型,在权威的中文和英文 benchmark 上均取得同尺寸最好的效果。
Jax GPT是对Karpathy的nanoGPT的重写,基于Jax和Flax框架构建,旨在提供高效的文本生成能力,支持快速训练和推理,具有易于扩展和修改的架构,能够充分利用高性能的并行计算。
一个展示GPT-4潜力的实验项目,通过GPT-4驱动,实现自主目标完成。