picollm是一个基于X-Bit量化的设备端大型语言模型(LLM)推理引擎,专为运行压缩的大型语言模型而优化。它提供跨平台、高准确性的SDK,支持本地运行以确保隐私安全,适合在资源受限的设备上使用。
该项目是一个基于Colab的Gradio网页界面,旨在便捷地运行和使用多个已训练好的大语言模型,支持用户直接输入文本并进行生成,同时也允许使用自定义模型进行文本生成,适用于自然语言处理和文本生成等多个领域的研究和应用。
UMbreLLa是一个使大型语言模型在普通设备上高效运行的工具,通过独特的技术组合,使得70B级别的模型在RTX 4070Ti上能够达到类似人类阅读速度的性能,尤其擅长处理编程任务。
Chat Nova利用Vercel的AI SDK、OpenAI和NextJS的强大功能,彻底改变您与PDF的互动方式。作为市场上最佳的NextJS AI聊天机器人,它是完全免费的开源项目,由行业专家创建和维护。
ChatGLM-6B-API是基于清华大学开源的对话语言模型ChatGLM-6B和FastAPI构建的API,能够在本地部署并提供API接口,方便用户进行对话生成和自然语言处理。
智能优化版Llama.cpp:基于原版Llama.cpp的克隆项目,它增加了最先进的量化技术,并针对CPU性能进行了改进,使得在处理大型语言模型时更加高效
TinyZero是一个以不到30美元的成本,利用veRL强化学习训练框架,在qwen2.5模型基础上进行训练的项目,能够复现DeepSeek R1论文中的'Aha moment',并提供完整实验日志和开源代码,方便复现和学习。
Cargoship是一个开源平台,允许用户轻松将人工智能集成到他们的应用程序中。它提供了一系列用于各种AI任务的预训练模型,如图像识别、语言处理、文本生成和音频转录。用户只需从其开源集合中选择一个模型,该模型以Docker容器的形式打包,便于托管或通过个人端点和API密钥访问,无需具备机器学习知识即可将模型整合到软件中。
TextSynth 提供对大型语言模型和文本到图像模型的访问,如 Llama2、Falcon、GPT-J、GPT-NeoX 等,用户可以通过 REST API 或者友好的操作界面进行文本补全、问答、分类、聊天、翻译和图像生成等多种任务。
InstantLLM是一个移动应用和Python包,旨在通过简单的几行代码,实现语言模型的快速和轻松集成。
autoComplete.js 是一个轻量级的自动补全库,支持多种数据源,允许自定义样式和模板,适用于各种输入场景,提升用户体验。
mlc-llm是一个能够在任何设备上编译和运行大语言模型的项目,包括移动设备和消费级电脑,支持多种GPU和浏览器环境。
一种高效在单个GPU设备上部署和运行多个微调大语言模型的框架,显著降低服务成本,支持动态加载不同的适配器模型,能根据请求实时加载必要的模型权重,不影响并发请求。
BRIA.ai 是一个视觉生成AI平台,利用专有的生成AI技术,帮助用户快速、高效地创建高质量的视觉内容,满足大规模定制需求。用户可以通过注册网站账号使用该平台,并探索其功能,包括许可的基础模型、API和服务工具,灵活应用于各种环境以满足特定的研究、开发和商业需求。BRIA.ai 还提供网络应用和 iFrame/SDK 集成,便于快速实现生成AI,提升用户体验,加速市场进入。
ContentGroove是一个利用生成性AI自动创建视频亮点和剪辑的平台,帮助用户节省编辑时间和成本。用户可以上传视频或提供YouTube和Vimeo链接,通过指定关键词生成亮点,编辑生成的剪辑,并直接发布到社交媒体或嵌入到网站中。
一种利用隐式神经表示法表示复杂数据结构的方法,适用于多种数据类型的学习和生成建模任务。
Jib 是一个对话式人工智能,具备极快的响应速度和流畅的交流能力,让用户几乎无法察觉其为机器人。用户可以在开车或散步时完全免提地与 Jib 进行对话,提升了使用的便利性和安全性。