该论文打开了自注意力层如何组合输入token动态过程的黑盒子,并揭示了潜在的归纳偏见的性质。
用于LLM360评估和分析的代码库,包含了多种评估指标和分析方法,旨在帮助用户全面理解和优化模型表现。
赤兔量化注意力:专注于量化注意力机制的高效 GPU 实现库,旨在加速长序列数据的处理速度,并且与 Long-Context-Attention 库无缝集成
一个为HunyuanVideo模型开发的ComfyUI封装节点,可在ComfyUI环境中进行视频生成。支持flash_attn和sageattn两种注意力机制,内存占用取决于分辨率和帧数。即使在低分辨率下也能生成质量不错的视频效果。
实现了用Numpy库构建全连接神经网络和基于注意机制的transformer模型的最小化版本,代码行数少于650行,是一份值得参考的简化神经网络实现案例
一个 Transformer 可视化交互式学习工具,通过输入文本实时观察各个组件如何处理,最终预测下一个 Token。