FuzzyAI是一款强大的自动化模糊测试工具,旨在帮助开发者和安全研究人员识别和减轻其LLM API中的潜在越狱风险。
llm-attacks是一个针对对齐语言模型的通用可迁移对抗攻击工具,旨在通过附加对抗性后缀诱导模型产生不良内容。该项目支持多种语言模型的攻击,结合贪心和基于梯度的离散优化,能够自动生成对抗性后缀,以评估模型的鲁棒性和安全性。
PentestGPT 是一个利用 GPT 技术进行渗透测试的工具,能够智能识别和扫描漏洞,自动生成测试报告,并支持多种攻击向量,旨在提升渗透测试的效率和准确性。
TestPilot 是一个利用大语言模型 (LLM) 自动为用 JavaScript/TypeScript 编写的 npm 包生成单元测试的工具,旨在提高开发效率,简化测试编写流程。
Swift Security是一个统一的AI安全平台,通过公共、私有和自定义的大语言模型积极保护用户、开发者和应用程序。
该项目汇集了关于大型语言模型有害微调的研究论文,旨在提供攻击与防御策略的最新进展和深入讨论,促进对语言模型安全性问题的关注与理解。
AppSec Assistant 是一款利用人工智能为您的 Jira Cloud 工单生成安全建议的工具,帮助您和您的组织实现真正的设计安全流程。它能够在不增加人手的情况下扩展您的应用安全程序,缓解安全瓶颈问题。
OS-Genesis是一款自动化GUI Agent轨迹构建工具,通过逆向任务合成技术,无需人工监督或预定义任务即可生成高质量和多样化的GUI代理轨迹数据,极大地提高了测试效率和数据多样性。