什么是HumanEval?

HumanEval是由OpenAI在2021年推出的一个基准测试集,专门用于评估人工智能模型在代码生成任务上的能力。它包含164个手动编写的编程问题,覆盖多种难度和领域,每个问题都配有单元测试以验证生成代码的正确性,旨在提供人类水平的评估标 […]