Mikupad是一个轻量级、高效的语言模型前端,支持多种后端,具备会话持久性和预测撤销/重做等功能,旨在打造一个简单而强大的文本生成界面。
SmolLM2是一款轻量级语言模型,提供135M、360M和1.7B参数版本,特别适合在各种设备上运行。该模型能够处理多种自然语言处理任务,具有体积小、速度快的特点,非常适合边缘计算和移动设备应用。
一个Mamba的最小化实现。Mamba是CMU和普林斯顿的研究成功。这种SSM架构在语言建模上与Transformers不相上下,而且还能线性扩展,同时具有5倍的推理吞吐量。