AI开源项目

JailbreakBench-评估大型语言模型的鲁棒性

JailbreakBench 是一个开源的鲁棒性基准,旨在评估对大型语言模型(LLM)进行大规模越狱的进展,提供丰富的数据集和评估工具,以支持研究人员和开发者在这个领域的探索。

JailbreakBench 是一个开源的鲁棒性基准,旨在评估对大型语言模型(LLM)进行大规模越狱的进展,提供丰富的数据集和评估工具,以支持研究人员和开发者在这个领域的探索。
JailbreakBench的特点:
1. 提供 JBB-Behaviors 数据集,包含 100 种不同的滥用行为
2. 行为是根据 OpenAI 的使用策略性精选的
3. 提供官方的 JailbreakBench 领域表
4. 跟踪对数据集中滥用行为进行攻击和防御的算法的性能

JailbreakBench的功能:
1. 评估大型语言模型在面对越狱攻击时的鲁棒性
2. 研究和开发针对 LLM 的攻击和防御算法
3. 收集和分析不同滥用行为的影响

相关推荐

暂无评论

暂无评论...