SWELancer-Benchmark是一个专为评估大型语言模型(LLMs)在复杂编程任务中表现而设计的项目。它提供真实世界的软件工程任务数据集,旨在挑战和测试LLMs在自由职业软件工程中的实际应用能力。该项目为研究和开发提供了完整的代码和工具支持,助力研究人员和开发者深入探索LLMs在真实环境中的表现。