AI开源项目

mllm-移动设备上的多模态语言模型推理引擎

mllm是一个专为移动和边缘设备优化的轻量级多模态大型语言模型推理引擎,能够在无需依赖外部库的情况下,支持多种模型和硬件架构,提供快速推理能力。

mllm是一个专为移动和边缘设备优化的轻量级多模态大型语言模型推理引擎,能够在无需依赖外部库的情况下,支持多种模型和硬件架构,提供快速推理能力。
mllm的特点:
1. 轻量级设计,适合移动和边缘设备
2. 支持多种多模态大型语言模型
3. 无需外部库,易于集成
4. 适配多种硬件架构

mllm的功能:
1. 在移动应用中实现快速LLM推理
2. 用于边缘计算设备的多模态任务处理
3. 集成到现有的机器学习工作流中

相关推荐

暂无评论

暂无评论...