多模态大语言模型(MLLM)安全性相关论文资源列表,旨在阻止模型遵循恶意指令和生成有毒内容。该项目聚合了多种安全性相关的研究成果,帮助研究人员和开发者深入了解MLLM的潜在风险,并促进对安全性的讨论和研究。