Reasoning-Attack项目旨在揭示大型语言模型(LLM)在推理过程中的漏洞,特别是模型在特定查询下无法生成结束标记,导致资源耗尽的问题。通过实验验证,该项目展示了仅需少量攻击请求即可完全占用GPU资源,形成低成本DDoS攻击手段。此外,攻击查询可在同系列模型间转移,对开源开发生态构成威胁。项目提供了测试、评估和防御推理攻击的工具,帮助开发者和研究人员识别和分析不同模型在面对攻击查询时的表现。