ai领域昨日捷报频传:马斯克xai发布了grok-3旗舰大模型;deepseek梁文锋团队则公开全新注意力架构nsa。openai迅速回应,推出并开源了swe-lancer基准测试,用于评估ai大模型的软件工程能力。该基准包含1400多个来自upwork平台的真实软件工程任务,总价值高达百万美元。这意味着,如果模型能完成所有任务,就能获得同等报酬。
SWE-Lancer基准涵盖独立工程任务(例如bug修复和功能实现)和管理任务,任务难度和报酬成正比。独立工程任务经三重验证的端到端测试评级,管理任务则根据工程经理的评估结果判定。
SWE-Lancer任务模拟了现代软件工程的复杂性,平均耗时超过21天。
OpenAI的测试结果显示,包括GPT-4o、o1和Anthropic Claude 3.5 Sonnet在内的顶尖模型仍无法解决大部分任务。Claude 3.5 Sonnet表现最佳,完成任务价值达403,325美元。
为促进研究,OpenAI开源了统一的Docker镜像和SWE-Lancer Diamond公共评估集。通过将模型性能与实际经济价值挂钩,OpenAI旨在深入研究AI模型开发的经济效益。
论文标题:SWE-Lancer: Can Frontier LLMs Earn $1 Million from Real-World Freelance Software Engineering?论文地址:https://www.php.cn/link/89c1df48f184b1491c3d800ff90a1aa1项目地址:https://www.php.cn/link/89c1df48f184b1491c3d800ff90a1aa1
SWE-Lancer数据集包含1488个来自Upwork的软件工程任务,总价值百万美元,分为个人贡献者(IC)任务和管理任务两类。IC任务侧重于bug修复和功能实现,管理任务则模拟软件工程经理的角色选择最佳解决方案。
SWE-Lancer数据集由OpenAI研究人员和100名软件工程师创建,确保任务真实性,并避免模型作弊。
测试结果显示,现有模型难以完全胜任真实软件工程任务,虽然能辅助解决一些问题,但距离完全取代人类工程师还有距离。模型在定位问题方面表现出色,但在深入理解和解决根本问题方面仍有不足。
以上就是Claude挣钱强于o1!OpenAI开源百万美元编码基准,检验大模型钞能力的详细内容,更多请关注【创想鸟】其它相关文章!
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至253000106@qq.com举报,一经查实,本站将立刻删除。
发布者:PHP中文网,转转请注明出处:https://www.chuangxiangniao.com/p/1813121.html