中国科学院自动化研究所与美团无人车团队合作,推出全球最大规模的自动驾驶世界模型数据集 drivingdojo,现已入选 neurips 2024 数据集追踪项目。该数据集旨在克服现有数据集在视频多样性和行为复杂性方面的不足,全面提升世界模型在自动驾驶领域的应用潜力。
DrivingDojo 数据集包含约 18000 个平均时长 20 秒的高质量视频,涵盖各种长尾驾驶场景,例如意外事件(如水桶掉落、栅栏倒塌)、极端天气和光照条件、以及各种行人与车辆交互行为。数据集分为三个子集,分别侧重于驾驶行为、动态交互和世界知识。
DrivingDojo 的核心优势在于其对世界模型关键能力的关注:交互、知识和泛化。
交互: 数据集包含丰富的车辆与行人、其他车辆间的动态交互场景,例如并线、会车、超车等,帮助模型学习并预测这些复杂交互行为。
知识: 数据集包含各种场景元素,例如红绿灯、交通标志等,帮助模型学习并理解这些世界知识,从而做出更准确的决策。
泛化: 数据集包含大量长尾场景,提升模型在面对未知和异常情况时的泛化能力,确保其在真实世界中的可靠性。
DrivingDojo 支持多种研究方向,包括:
真实多样的驾驶场景生成: 基于给定的初始帧和轨迹,模型可以预测未来的驾驶场景,并通过 COLMAP 重建方法进行定量评估。
生成能力的泛化: 模型在 DrivingDojo 上训练后,可在 OpenDV 等其他数据集上进行测试,评估其跨数据集的泛化能力。
交互行为的预测: 模型可以根据不同的驾驶行为(例如停车或继续行驶)预测其他车辆的反应,例如是否会超车或让行。
DrivingDojo 数据集、论文和代码均已公开:
网站: https://www.php.cn/link/e262bb94d2283745c350627f4334a11d论文: https://www.php.cn/link/e262bb94d2283745c350627f4334a11d代码: https://www.php.cn/link/e262bb94d2283745c350627f4334a11d
DrivingDojo 的发布为自动驾驶世界模型研究提供了宝贵资源,有望推动该领域取得突破性进展。 它强调了在真实世界场景中,对智能体交互、环境知识和模型泛化能力的综合考量。
以上就是18k个视频、专为自动驾驶世界模型设计,DrivingDojo数据集来了的详细内容,更多请关注【创想鸟】其它相关文章!
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至253000106@qq.com举报,一经查实,本站将立刻删除。
发布者:PHP中文网,转转请注明出处:https://www.chuangxiangniao.com/p/3059641.html