CodeCapybara是一个基于LLaMA模型的开源项目,它可以根据指令调整代码生成。该项目由FSoft AI4Code团队开发,采用了机器学习技术。
这个开源项目的功能是训练医疗大模型,包括二次预训练、有监督微调、奖励建模和强化学习训练。使用ChatGPT Training Pipeline可用于训练医疗GPT模型,适用于机器学习领域。
这个开源项目将k8s和gpt(生成式预训练模型)整合到一起,提供了命令行接口。
开源项目 "BELLE" 是一个基于Stanford Alpaca的中文对话大模型引擎,共有70亿参数,经过优化。该项目只使用由ChatGPT生产的数据进行模型调优,不包含任何其他数据。
Open-ChatGPT是一个开源项目,由Robin在GitHub上进行维护。它包括了ChatGPT、Alpaca、Vicuna和RLHF Pipeline等功能的实现。
这个开源项目具有以下功能: 1. 自主管理:可以独立管理,不依赖于其他系统或平台。 2. 社区驱动:由社区成员参与开发和改进驱动,意味着项目的发展是社区共同努力的结果。 3. 本地 OpenAI 兼容 API:提供本地的 API 接口,与 OpenAI 兼容,可以直接替代在消费级硬件上运行 LLM(Language Model)的 OpenAI。 4. 无需 GPU:不需要使用 GPU,可以在普通硬件上运行。 5. 运行 ggml 兼容模型的 RESTful API:能够运行支持 ggml 兼容的模型,并提供 RESTful API 接口。 6. 支持多个模型:支持多种模型,如 llama.cpp、alpaca.cpp、gpt4all.cpp、rwkv.cpp、whisper.cpp、骆马、考拉、gpt4all-j、大脑等等。
llama-node是一个基于Node.js的大型语言模型,可以在本地的笔记本电脑CPU上运行,支持llama/alpaca模型,旨在促进AI的民主化。该项目是机器学习领域的开源项目。
这个开源项目的功能总结如下:它提供了一个完整的流程,可以在消费级硬件上对ChatGLM LLM进行微调,使用了LoRA和RLHF。该项目在ChatGLM架构的基础上实现了RLHF(人类反馈强化学习)。基本上,它是一个使用ChatGLM替代了ChatGPT的工具。
这个开源项目是为了在普通消费级硬件上进行Vicuna LLM的微调而提供的一个完整的流程。它结合了LoRA和RLHF,并在Vicuna架构的基础上实现了RLHF(强化学习与人类反馈)。它基本上是一个类似于ChatGPT的项目,但具有Vicuna的功能。
LLaMA-2是一个对中文语言模型LLaMA进行改进的AI开源项目。它的目标是开发出一个可以在本地CPU/GPU上进行训练和部署的大型中文语言模型。使用LLaMA-2,用户可以进行中文文本的生成、理解和分析等任务。这个项目可以帮助用户实现更高质量的中文语言处理和智能化应用。
这个开源项目是关于ChatGPT(对话生成AI)、生成式AI和LLM(语言模型)的时间线,通过GitHub展示。该项目的功能是用开源的机器学习技术来展示这些相关技术的演进历程。
这个开源项目的功能是寻找ChatGPT和GPT4的开源替代版本并进行汇总。该项目主要关注于开源和机器学习方面。
LLaVA是一种轻量级、多模式的语言和视觉助理,类似于GPT-4。它具有语言和图像处理的功能,并在llava-vl.github.io上提供了官方演示。相关论文可以在O网页链接中获取。
这个开源项目使用LoRA和RLHF技术,在消费级硬件上对Alpaca LLM进行微调。它基于Alpaca架构实现了RLHF,类似于ChatGPT系统但采用了Alpaca技术。
ChatPiXiu 是一个开源的聊天机器人项目,其目的在于研究、复制和适应开源聊天机器人 ChatGPT 的替代方案或实现。该项目采用机器学习技术,旨在提供人机交互的聊天服务,其名称“PiXiu”表示“貔貅”,寓意带来好运。
这个开源项目是一个后端接口,用于使用开源大型语言模型(LLMs)进行对话,类似于ChatGPT。它支持多种开源大模型,并且可以进行机器学习。
这个开源项目的主要功能是收集各种指令数据集,目的是为了训练 ChatLLM,也就是一种聊天式语言模型,例如chatgpt。