2000 Fine Tuning Prompts是一个全面的资源,旨在帮助爱好者学习和实验微调,熟悉其在不同上下文中的功能和应用。
一个可定制、简洁、用户友好且高效的工具包,用于训练和微调大型语言模型,支持多种训练和优化方法,以提高模型性能和稳定性。
Anote平台通过人性化的AI技术,积极从人类反馈中学习,不断优化GPT-4、Bard、Claude等AI算法及RLHF、Fine-Tuning和RAG等技术,使其在特定用例中随着时间的推移表现得更好。
VL-PET是通过粒度控制实现视觉与语言模型的参数高效调优,旨在提升模型在特定任务上的表现。
eLLMo是一个专属的私有大型语言模型,旨在保护客户数据的隐私。它利用增强检索生成(RAG)技术,能够回答客户数据和文档上的问题,打破团队间的信息孤岛。该解决方案可在本地部署,确保数据安全与合规。
LaMini-LM是一个对多个迷你大语言模型进行微调的项目,旨在提升模型的性能,其中包括经过微调的GPT-2,其性能可与LLaMa的Alpaca-7B相媲美。
ModuleFormer是一种基于MoE(Mixture of Experts)的架构,旨在提高大型语言模型的计算效率和可扩展性。其设计允许通过稀疏激活专家子集来实现与密集型语言模型相同的性能,同时在吞吐量上超过两倍。此外,它对灾难性遗忘具有免疫力,能够通过引入新专家来学习新知识,并且支持对特定微调任务的专家进行专注,便于轻量级部署。
LLMOps是一个灵活、稳健且高效的Python工具包,专为大型语言模型(LLM)的运营设计。它提供了模型注册、实验跟踪和实时推理等关键功能,帮助开发者和研究人员更好地管理和优化他们的模型。该工具包支持高效的操作,并具备灵活的集成能力,适用于各种机器学习工作流。
提出了一种在输入问题类型未知的混合任务场景下的通用思想链(Meta-CoT)提示方法,旨在弥合性能和泛化之间的差距。
Windows AI Studio是微软提供的官方工具,旨在帮助开发者在本地微调和测试AI模型,支持Phi 2、RAG以及Windows优化模型,整合了Azure AI Studio目录和Hugging Face等资源,确保隐私和数据安全。
DeepSeek-V3 的Q4_k_m 量化版本,大小比原本的小一半,兼容性强,适用于多种环境,提升处理效率,同时保留大部分原始模型性能。
Vercel AI Playground是一个在线平台,允许用户使用最新的AI语言模型构建AI驱动的应用程序。它提供了一系列功能来微调模型,例如并排比较模型的Compare Mode和优化参数的Tweak Mode。
Llama Stack 是一个开源项目,旨在将 LLM 应用构建生成周期的所有组件打包,包括训练、微调、产品评估、观测、Agent & Memory、合成数据生成等,并支持 9+ 提供商。
nanoRWKV是RWKV语言模型的轻量级实现,专为快速实验与多种语言处理任务设计,兼容RWKV架构,基于nanoGPT优化了性能和效率,易于扩展和自定义。
《人体运动扩散模型》的论文代码,旨在高效生成和编辑人体运动,支持多种运动风格和动作捕捉数据。
整理开源的中文大语言模型,以规模较小、可私有化部署、训练成本较低的模型为主,包括底座模型,垂直领域微调及应用,数据集与教程等。该项目收录了100+个中文LLM相关的开源模型和资源,适合企业应用和研究。
nat.dev是一个开源的LLM(语言模型)测试平台,提供用户友好的界面,方便用户实验不同的LLM模型并分析其性能。用户可以创建账户,选择不同的模型进行测试,输入文本提示,生成响应,并评估生成的输出。该平台还允许用户自定义模型参数,适合高级用户进行微调。
Reworkd AI是一个强大的工具,旨在通过AI代理在大规模下提取网页数据。无须开发者即可使用,适用于多种行业,帮助用户高效获取所需信息。用户可以通过加入候补名单开始使用该工具,提升数据收集的效率和准确性。