《自然语言处理:基于预训练模型的方法》随书代码,提供多种基于预训练模型的自然语言处理方法,支持文本分类、命名实体识别、问答等任务,包含详细的使用示例和文档,易于扩展和集成到其他项目中。
该项目提供了Vision Transformer在Tensorflow中的完整实现,支持多种数据集和任务,易于扩展和修改,并包含详细的使用示例和文档,帮助用户快速上手并深入了解模型的应用与性能。
这是一个由Arcee AI开发的领域适应语言建模工具包,旨在通过适应性训练提高模型在特定领域的表现。它支持多种语言模型的微调,能够兼容多种数据格式,且易于集成和扩展。
transformers-ruby是为Ruby语言提供最新的Transformers技术的库,支持多种模型架构,适用于各种自然语言处理任务,并提供丰富的功能,能够与Ruby语言无缝集成。
基于LLaMA和SlimPajama的MoE模型,旨在利用混合专家模型进行持续预训练。该模型结合了LLaMA和SlimPajama的优点,通过支持混合专家架构,提高模型的效率和性能,同时能够进行持续的预训练,以适应不同的任务,灵活的模型配置使其适用于多种应用场景。
EasyNLP是一个功能全面且易于使用的自然语言处理工具包,支持多种NLP任务,提供丰富的预训练模型,并能与多种深度学习框架无缝集成。它拥有良好的文档和社区支持,旨在简化用户的NLP开发流程。
LLaVA-LLaMA-3是基于Llama-3-8b大型语言模型(LLM)的LLaVA-v1.5复现项目,旨在提供预训练模型及相关的训练和演示脚本,方便研究人员和开发者进行自然语言处理任务的探索与应用。
提供了 ComfyUI 的 BiRefNet 插件,支持多种预训练模型的使用,包括通用、人像、图像分割等场景的模型,并且支持自动下载模型文件。
基于MindSpore的易于使用和高性能的自然语言处理(NLP)和语言模型(LLM)框架,与Huggingface的模型和数据集兼容,支持多种NLP任务。
transformers_zamba2是一个为自然语言处理打造的先进工具库,提供数千个预训练模型,支持文本分类、问答、翻译等多种语言任务,让NLP技术更易用。该库不仅可以处理文本数据,还支持视觉和音频模态,适用于多种应用场景。
这是一个能够将一种歌声转换为另一种歌声的模型,支持任意源歌声到任意目标歌声的转换,基于神经网络实现高效的声线合成,并能处理多种音频格式,提供用户友好的接口和文档。
Kansformers是一个基于知识增强网络(KANs)的Transformer架构,旨在提高自然语言处理任务的性能。它提供多种预训练模型,支持针对特定任务的微调,并具备高效的模型推理能力和灵活的API设计,适合多种应用场景。
只依赖pytorch、transformers、numpy、tensorboardX,专注于文本分类、序列标注的极简自然语言处理工具包
该课程提供了基于Transformer架构的音频处理技术,包含丰富的音频数据集和预训练模型,支持多种音频任务如分类、生成和转录,并结合实用示例和代码演示,帮助学习者掌握音频处理的最新技术。
Movenet.Pytorch是Google推出的MoveNet在Pytorch中的实现,包含训练代码和预训练模型,适用于人体关键点检测任务。
Yi是一系列从零开始训练的大型语言模型,旨在提供高质量的文本生成和对话能力,适用于多种应用场景。
EnergeticAI是为无服务器功能优化的TensorFlow.js,提供快速冷启动、小模块大小和预训练模型,非常适合在Node.js应用中集成开源AI。
MagicAnimate Playground是一个开创性的开源项目,旨在简化动画创建,允许用户从单张图片和运动视频中生成动画视频。该网站聚合了相关内容,便于学习和实际应用。
基于GPT-2模型的中文文本生成项目,旨在为中文自然语言处理提供强大的文本生成能力,支持预训练和fine-tuning,适用于多种场景,如创作、对话等。