这本书的实践代码,旨在帮助读者掌握大型语言模型的使用和应用,提供丰富的示例和深入的讲解,适合各级开发者。
从零基础到训练GPT的课程资料,旨在帮助用户从无深度学习知识到实现自己的GPT模型。
ChatGLM-6B-API是基于清华大学开源的对话语言模型ChatGLM-6B和FastAPI构建的API,能够在本地部署并提供API接口,方便用户进行对话生成和自然语言处理。
EasyContext 是一个用于内存优化和训练配方的项目,旨在将语言模型的上下文长度扩展到100万令牌,同时对硬件要求最小化。该项目提供了多种方法来提升模型性能,并兼容现有技术的实现,帮助开发者在资源有限的情况下有效地进行模型训练。
TextSynth 提供对大型语言模型和文本到图像模型的访问,如 Llama2、Falcon、GPT-J、GPT-NeoX 等,用户可以通过 REST API 或者友好的操作界面进行文本补全、问答、分类、聊天、翻译和图像生成等多种任务。
面向生产的大语言模型构建指南配套代码,提供丰富的Jupyter笔记本,帮助开发者深入理解和实践LLM的应用开发。该项目旨在帮助开发者通过实际操作掌握大语言模型的构建与应用,通过示例代码和文档支持自学和项目开发。
该项目汇集了多个开源的中文预训练语言模型及其对应的指令数据集,旨在为中文自然语言处理提供丰富的资源。
通过 LMSYS 的 Chatbot Arena 数据生成的大语言模型过去一年 ELO 的排名变化对比动画,帮助用户直观了解不同模型的表现和竞争力。
Cargoship是一个开源平台,允许用户轻松将人工智能集成到他们的应用程序中。它提供了一系列用于各种AI任务的预训练模型,如图像识别、语言处理、文本生成和音频转录。用户只需从其开源集合中选择一个模型,该模型以Docker容器的形式打包,便于托管或通过个人端点和API密钥访问,无需具备机器学习知识即可将模型整合到软件中。
Fine-Tuner AI是一款强大的工具,利用尖端的微调技术提升您的自然语言处理(NLP)模型性能。它可以在更少的数据下以极短的时间内实现更好的结果。用户只需将NLP模型和数据上传到平台,Fine-Tuner将应用其先进的微调算法,优化模型以提高性能。优化后的模型可以轻松集成回现有工作流程中。
Google DeepMind的这篇新论文提出了一种方法,名为“通过提示进行优化”(OPRO)的简单而有效的方法,利用语言大模型(LLM)作为优化器,其中优化任务以自然语言描述。
CodeGPT 是一个免费的 JetBrains 插件,提供对先进大型语言模型(如 GPT-4、Claude 3、Code Llama 等)的访问,以增强程序员的编程体验和效率。该插件集成在 JetBrains 开发环境中,支持多种编程语言,帮助开发者更轻松地编写和优化代码。
一个可助开发者快速掌握 Rust 语言的开源项目,通过 100 道练习题练习,学习 Rust 编程语言的语法、系统类型、标准库使用以及生态系统等。
该项目集成了基于 transformers 库实现的多种自然语言处理任务,支持用户使用各种预训练模型,进行文本分类、生成、命名实体识别、机器翻译等操作,并且允许用户自定义数据集,易于使用和扩展。
Thelo是一个帮助用户选择合适的语言模型(LLM)供应商的平台,它不仅优化各类提示的响应,还能为每个提示找到最佳且最具成本效益的解决方案。通过使用Thelo,用户可以轻松比较不同供应商的性能和价格,从而做出明智的决策。
CSGHub是一个开源的、可信的大模型资产管理平台,旨在帮助用户管理与大型语言模型及其应用(如数据集、模型文件、代码等)生命周期相关的资产。
该项目提供了多种JavaScript编程技巧,旨在帮助开发者解决常见问题,适合初学者和有经验的开发者。通过示例代码,用户可以直观地理解并应用这些技巧,提升编程能力。
一本实用的电子书,讲解大模型的基本理论、预训练、微调与对齐、大模型使用及评测与应用等内容。