MAPE-PPI 项目旨在通过微环境感知的蛋白质嵌入技术,提升蛋白质相互作用预测的有效性和效率。该项目结合了深度学习和生物信息学,能够准确预测蛋白质之间的相互作用,为生物研究和药物发现提供重要支持。
Stick-breaking Attention 是一种基于 Triton 的变长序列注意力机制实现,旨在通过优化计算方式提升在 GPU 上的性能,适合多种深度学习任务,易于与现有框架集成。
JFLUX是Black Forest Labs的Flux.1系列模型的JAX实现,支持FLUX.1的多个变体,并鼓励社区参与进一步的性能优化和功能增强。
一套用于在Google Cloud Vertex AI和Google Kubernetes Engine上训练和部署模型的Docker镜像
一个用于人声分离的工具,旨在帮助用户从音乐中去除人声,保留伴奏。
《TensorFlow in Action》教你使用TensorFlow 2构建、训练和部署深度学习模型,涵盖从DL基础知识到NLP、图像处理和MLOps的高级应用。
MoveNet是一个基于深度学习的高效姿态检测模型,能够在PyTorch环境中实时估计人体姿态,支持多种输入格式,并能在多个设备上运行,包括移动设备。
这是一个基于PyTorch的库,旨在加速在分布外(OOD)检测方面的研究,支持多种检测方法,并提供易用的API设计。该项目结合深度学习模型进行OOD任务,提供数据集和基准测试,且可与PyTorch深度学习框架无缝集成。
FiT3D项目旨在通过3D感知的微调技术来增强2D特征表示,提升图像理解和识别的能力。该项目结合了深度学习和计算机视觉的前沿技术,致力于在多种视觉任务中实现更高的性能。
基于Triton语言实现的Flash Attention, 采用OpenAI团队发布的Fused Attention代码,优化了注意力机制,适用于大规模数据处理,支持快速训练和推理,兼容多种深度学习框架。
Meta-Transformer是一个用于多模态学习的统一框架,能够处理各种模态如自然语言、2D图像、3D点云、音频、视频、时间序列和表格数据。它采用冻结的编码器进行多模态感知,并且可以在没有配对的多模态训练数据的情况下进行训练,同时可学习的数据预处理器能够处理每个输入模态,生成共享的嵌入表示。
基于PyTorch的GPT-2模型训练器,优化效率和代码简化,实现现代技术如旋转嵌入,以更少的token达到相同验证损失。该项目专注于提升模型训练的效率,使得用户能够在多种深度学习任务中更便捷地使用GPT-2架构。
Graphium是一个专注于图表示学习的深度学习库,特别用于处理现实世界中的化学任务。它具备最先进的图神经网络架构,提供可扩展的API,并支持丰富的分子特征化功能,能够有效应对复杂的化学问题。
FaceChain是一个结合多种定制的图像生成模型与面部理解模型的个性化肖像生成框架。它允许用户仅通过少量肖像图像生成真实的个性化肖像,并结合面部检测与属性识别等技术,提升生成效果与质量,同时支持多种风格的调整,具有很高的灵活性。
ERNIE是百度于2020年开源的生成式模型,旨在通过深度学习技术提高自然语言处理的能力。
基于TensorRT实现的Streaming-LLM技术,旨在支持LLM模型进行无限输入长度的推理,提供高效、实时的AI服务。
本文介绍了一个名为DDSP-SVC 3.0的开源项目,它是一个可以替代低配SO-VITS-SVC的工具。使用该工具,可以用更低的显存和更短的时间训练出模型,生成AI音乐。尽管生成的音乐质量相对较低,但可以用于快速生成音乐。
TensorFlow是由Google开发的开源库,旨在简化机器学习模型的构建和部署过程,适合各种用户,从新手到专业数据科学家。