Intel的LLM加速库,旨在通过使用Intel显卡和带NPU的CPU来加速主流深度学习框架的运行。
这是一个可扩展且高效的主动学习/数据选择系统,旨在为每个人提供服务,优化数据选择过程,以提高模型训练的效率,并支持用户友好的接口和灵活的集成。
这是2022搜狐校园算法大赛NLP赛道第一名的开源方案,包含实验代码,旨在提供高效的自然语言处理解决方案。该项目经过优化,能够支持多种数据预处理方式,并提供详细的实验结果和分析,帮助用户更好地理解和应用自然语言处理技术。
研究详细分析了多模态模型架构的优缺点,提供了构建和选择合适模型的指导,并首次识别和分类了四种主要的多模态模型架构类型。
Hugging Face生态(Transformers, Datasets, Tokenizers, and Accelerate等)使用教程,旨在帮助用户掌握各种工具和库,提供实践示例和交互式学习体验,适合不同水平的开发者。
Trapper是一个旨在更轻松地在下游任务上训练基于Transformer的模型的NLP库,采用模块化设计,提供一致的API,支持多种下游任务,能够实现最先进的NLP性能。
GoAIAdapt是一个AI软件平台,提供创建或导入数据集、应用机器学习算法和部署强大人工智能模型的前沿解决方案。
可本地部署的AI语音工具箱,提供语音识别、语音转写、语音转换等功能,支持音频处理、数据集创建和模型训练,适用于音频文件到理想语音模型的转换。
由5000张航空和卫星图像组成的数据集,包含了8类土地覆盖标签和220万个分割区域,覆盖了6大洲的44个国家的97个地区
fastllm是一个纯C++开发的全平台大模型加速库,具有无第三方依赖的特性,当前支持国产大模型如ChatGLM-6B和MOSS。该库在单卡上可实现超过10000个token每秒的处理速度,并且能够在安卓设备上流畅运行ChatGLM-6B,同时支持CUDA进行计算加速。
由Hugging Face、Argilla和开源机器学习社区共同合作的项目,旨在赋予开源社区共同构建有影响力的数据集的能力。
T-Rex Label 是一个AI辅助的数据标注工具。用户选择一个对象作为视觉提示,系统可以自动标注所有相似的对象,从而节省99%的时间。该工具无需安装或微调,只需点击网站即可开始标注!
机器学习和数据科学社区
该项目深入介绍了Transformer模型的背景、关键组件及其实现细节,旨在帮助开发者理解并实现Transformer架构。