网上有很多自动驾驶数据集分享,分散在各个论坛、知乎、github和博客中,每种数据集也被拆分来分享导致非常不方便,我这边需要汇总在一起,方便我后续的阅览和更新,同时我希望数据集的发布时间尽量在2018年之后的,所以就有了这篇文章,数据集的分类方法也是跟别人一样,分成8大类,这个分法我觉得非常不错,所以直接拿来用了。
自动驾驶数据集分类:
目标检测数据集
语义分割数据集
车道线检测数据集
光流数据集
全景数据集
定位与地图数据集
驾驶行为数据集
仿真数据集
Waymo数据集
发布方:Waymo
下载地址:https://waymo.com/open/
发布时间:2019年发布感知数据集,2021年发布运动数据集
大小:1.82TB
简介:Waymo数据集是到目前为止最大、最多样化的数据集,相比于以往的数据集,Waymo在传感器质量和数据集大小等方面都有较大提升,场景数量是nuScenes数据集的三倍
Perception Dataset
1950个自动驾驶视频片段,每段视频包括20s的连续驾驶画面
汽车、行人、自行车、交通标志四类标签
1260万个3D框,1180万个2D框
传感器数据:1 个中程激光雷达、4 个短程激光雷达、5个摄像头
采集范围涵盖美国加州的凤凰城、柯克兰、山景城、旧金山等地区的市中心和郊区。同时涉及各种驾驶条件下的数据,包括白天、黑夜、黎明、黄昏、雨天、晴天
Motion Dataset
包括574 小时的数据,103,354个带地图数据片段
汽车、行人、自行车三类标签,每个对象都带有2D框标注
挖掘用于行为预测研究的行为和场景,包括转弯、并道、变道和交汇
地点包括:旧金山、凤凰城、山景城、洛杉矶、底特律和西雅图
PandaSet
发布方:禾赛科技&Scale AI
下载地址:https://scale.com/resources/download/pandaset
发布时间:2019
大小:16.0 GB
简介:Pandaset面向科研及商业应用公开。首次同时使用了机械旋转式和图像级前向两类激光雷达进行数据采集,输出点云分割结果
特征
48000多个摄像头图像
16000个激光雷达扫描点云图像(超过100个8秒场景)
每个场景的28个注释
大多数场景的37个语义分割标签
传感器:1个机械LiDAR,1个固态LiDAR,5个广角摄像头,1个长焦摄像头,板载GPS / IMU
nuScenes
发布方:无人驾驶技术公司Motional
下载地址:https://scale.com/open-datasets/nuscenes/tutorial
论文地址:https://arxiv.org/abs/1903.11027
发布时间:2019
大小:547.98GB
简介:nuScenes 数据集是自动驾驶领域使用最广泛的公开数据集之一,也是目前最权威的自动驾驶纯视觉 3D 目标检测评测集。nuScenes数据集灵感来源于kitti,是首个包含全传感器套件的数据集。其中包含波士顿和新加坡的 1000 个复杂的驾驶场景。该数据集禁止商用
特征
全传感器套件:1个激光雷达、5个雷达、6个摄像头、GPS 、 IMU
1000个场景,每个场景20秒(850个用于模型训练,150个用于模型测试)
40万个关键帧,140万张相机图片,39万个激光雷达扫描点云图像,140 万个雷达扫描点云图像
为23个对象类标注的1400万个3D标注框
Lyft Level 5
发布方:来福车(Lyft)交通网络公司
下载地址:https://level-5.global/register/
论文地址:https://arxiv.org/pdf/2006.14480v2.pdf
发布时间:2019年发布Lyft-perception数据集,2020年发布Lyft-prediction数据集
Lyft-perception
超过 55,000 帧,由人工进行3D标注
130万3D标注
3万激光雷达点云数据
350个60-90分钟的场景
简介:来福车的自动驾驶汽车配备了一个内部传感器套件,可以收集其他汽车、行人、交通灯等的原始传感器数据
特征
Lyft-prediction
1000 个小时的驾驶记录
17 万个场景:每个场景持续约 25 秒,包括交通信号灯、航拍地图、人行道等
2575 公里:来自公共道路的 2575 公里数据
15242 张标注图片:包括高清语义分割图以及该区域的高清鸟瞰图
简介:该数据集包括无人驾驶车队遇到的汽车、骑自行车者、行人等其他交通行为主体的动作记录。这些记录来自通过原始激光雷达、相机和雷达数据,是训练运动预测模型的理想选择
特征
H3D - HRI-US
发布方:本田研究所
下载地址:https://usa.honda-ri.com//H3D
论文地址:https://arxiv.org/abs/1903.01568
发布时间:2019
简介:使用3D LiDAR扫描仪收集、大型全环绕3D多目标检测和跟踪数据集,该数据集仅供大学研究人员使用
特征
360 度 LiDAR 数据集
160个拥挤且复杂的交通场景
27,721帧,1,071,302个3D标注框
自动驾驶场景中8类常见对象的人工标注
传感器:3个高清摄像头,1个激光雷达,GPS / IMU
Boxy vehicle detection数据集
发布方:博世
下载地址:https://boxy-dataset.com/boxy/
论文地址:https://openaccess.thecvf.com/content_ICCVW_2019/papers/CVRSUAD/Behrendt_Boxy_Vehicle_Detection_in_Large_Images_ICCVW_2019_paper.pdf
发布时间:2019
大小:1.1TB
简介:大型车辆检测数据集,该数据集的亮点在于其500万像素的高分辨率,但不提供3D点云数据以及城市道路交通数据
特征
220万张、共1.1TB的高分辨率图像
500万像素分辨率
1,990,806个车辆标注,包括2D框标注和2.5D标注
包括晴天、雨天、黎明、白天、傍晚等多种场景
涵盖交通拥堵和畅通的高速公路场景
BLVD
发布方:西安交通大学人工智能与机器人研究所
下载地址:https://github.com/VCCIV/BLVD/
论文地址:https://arxiv.org/pdf/1903.06405.pdf
发布时间:2019
简介:全球首个五维驾驶场景理解数据集。BLVD旨在为动态4D跟踪(速度、距离、水平角度和垂直角度)、5D交互事件识别(4D+交互行为)和意图预测等任务提供一个统一的验证平台。由西安交通大学夸父号无人车采集
特征
标注654个包含12万帧的序列,全序列5D语义注释
249129条3D目标框,4902个有效可跟踪的独立个体
总长度约214900个跟踪点
6004个用于5D交互事件识别的有效片段,4900个可以进行5D意图预测的目标
丰富的场景:城市和高速公路、白天和夜晚
多个对象:行人、车辆、骑行者(包括骑自行车和骑摩托车的人)
传感器:一个Velodyne HDL-64E三维激光雷达、GPS / IMU、两个高分辨率多视点相机
SODA10M 数据集
发布方:华为诺亚方舟实验室&中山大学
下载地址:https://soda-2d.github.io/download.html
论文地址:https://arxiv.org/pdf/2106.11118.pdf
发布时间:2021
大小:5.6GB(带标记的数据),2TB(未标记的数据)
简介:半/自监督的2D基准数据集,其主要包含从32个城市采集的一千万张多样性丰富的无标签道路场景图片以及两万张带标签图片
特征
1000万张无标签图片以及2万张有标签图片,由手机或行车记录仪(1080P+)每10秒获取一帧图像
6种主要的人车场景类别:行人、自行车、汽车、卡车、电车、三轮车
覆盖中国32个城市
场景的多样性覆盖:晴天/阴天/雨天;城市街道/高速公路/乡村道路/住宅区;白天/夜间/黎明/黄昏
地平线保持在图像的中心,车内的遮挡不超过整个图像的15%
D²-City数据集
发布方:滴滴
下载地址:https://www.scidb.cn/en/detail?dataSetId=804399692560465920
发布时间:2019年
大小:131.21 GB
简介:D²-City是一个大规模行车视频数据集。与现有的数据集相比,D²-City胜在其数据集的多样性,数据集采集自运行在中国五个城市的滴滴运营车辆,并且涵盖不同的天气、道路和交通状况
特征
10,000 多个视频,所有视频均以高清(720P)或超高清(1080P)分辨率录制,所提供的原始数据均存储为帧率25fps、时长30秒的短视频
其中大约有1000个视频对12类对象都进行2D框标注以及跟踪标注,包括汽车、货车、公共汽车、卡车、行人、摩托车、自行车、开放式和封闭式三轮车、叉车以及障碍物
所提供的原始数据均存储为帧率25fps、时长30秒的短视频
丰富的场景:涵盖了不同的天气、道路、交通状况,尤其是极复杂和多样性的交通场景,如光线不足、雨雾天气、道路拥堵、图像清晰度低等
Apollo Scape数据集
发布方:百度
下载地址:http://apolloscape.auto/scene.html