Summary
传感器、驾驶事件
Name | Provider | Samples | Sensor | label | Object | paper model |
---|---|---|---|---|---|---|
Vehicle driving behavior(noget) | IEEE DataPort | 10,000 | accelerometer、gyroscope | 5 acceleration normal driving collision left turn right turn |
idenepsy the driver’s driving behavior | MV-CNN |
driverbehavior datasets(get) | github | 69 | accelerometer、gyroscope、aceleracaoLinear、campoMagnetico | 7 Aggressive breaking Aggressive acceleration Aggressive left turn Aggressive right turn Aggressive left lane change Aggressive right lane change Non-aggressive event |
driving behavior classification | ANN 、SVM、RF、BN |
Mendeley Data - Driving Behavior Dataset(get) | mendeley | 1,149 | accelerometer、gyroscope | 4 Sudden Acceleration Sudden Left turn Sudden Right turn Sudden Break |
driving behavior classification | — |
DBASA(get) | github | accelerometer、gyroscope | — | AA AR AL AB(无法进行标签对应,还需要再研究一下) | driving behavior classification | — |
自动驾驶行为预测的数据集(带有视频的数据集、车载数据)
- DBNet
- HDD(发邮件获取) 需要发送邮件获取
- comma2k19原始数据get
- DDD17(需翻墙) DDD20
数据查看工具github
PKU-DDD17-CAR Dataset - Brain4Cars 论文
- Dr(eye)ve 论文
- JAAD [论文]
- UAH
- Elektra(DrivFace)
- Udacity
- comma.ai
- DIPLECS Surrey
- DIPLECS Sweden
- EISATS(Set 11)
Vehicle driving behavior | IEEE DataPort
数据集描述
提供了两个txt文件,一个是原始数据集(RAW_DataSet.txt),另一个是增强数据集(Augmented_dataset.txt)
首次使用这个数据集的论文是”Vehicle Driving Behavior Recognition Based on Multi-View Convolutional Neural Network (MV-CNN) with Joint Data Augmentation”
我们开发了一个实验系统来收集驾驶行为数据和评估我们提出的方法。数据采集模块选择六轴传感器(MPU 6050),利用Wi-Fi模块实时传输数据。集成的三轴加速度计和三轴陀螺仪在动态环境下精确输出模块当前姿态。
数据采集设备采用STM32与MPU 6050集成,实现运动处理器的实时数据采集。分别安装SD卡和Wi-Fi无线传输模块进行存储和实时数据传输。
MPU 6050芯片被焊接在车辆的中心,其正面朝上。芯片x轴的正方向就是车辆头部的方向。正的y轴方向为左侧方向,正的z轴方向垂直于水平方向。
收集装置安装在遥控车上,然后接通电源。持续采集数据,通过Wi-Fi模块以10hz的频率发送到接收服务器。同时,我们在收集过程中记录了各种动作的日志信息,包括当前动作标记、开始时间戳和结束时间戳。在车辆加速、碰撞、左转弯、右转弯和正常行驶过程中进行数据采集。每个操作都存储在一个十六进制数据文件中,该文件还包括示例的特定操作标签和时间戳。
最终收集1032个事件,其中加速、碰撞、左转弯、右转弯和正常驾驶事件146、224、196、200和266个。
本数据集使用拉格朗日插值将每个事件调整为300个样本。采集的原始数据分别包含x轴、y轴和z轴的加速度计和陀螺仪值。
使用MAWF从1032个原始样本中生成2500个扩增样本。应用BNF算法后,2500个样本扩展到5000个样本。随后,采用RC算法将5000个样本扩展到10000个样本。将原始不平衡数据转换为平衡数据集,其中每个事件样本的数量相等。最后我们得到了10,000个样本用于我们的实验。
数据集格式
Event: {‘acc’: array([[x_axis], [y_axis], [z_axis], ‘gyr’,array([x_axis], [y_axis], [z_axis], ‘label’: No ]
- No =1 means acceleration.
- No =2 means normal driving.
- No =3 means collision.
- No =4 means left turn.
- No =5 means right turn.
包含两个传感器:accelerometer 和 gyroscope 以及对应的label(5个)
driverbehavior datasets(已获得)
包含四个传感器:accelerometer 和 gyroscope 以及对应的label(7个)
智能手机四个传感器数据,包含7个标签
Mendeley Data - Driving Behavior Dataset(已获得)
包含下面两个传感器的数据:
- accelerometer (X,Y,Z axis in meters per second squared (m/s2))
- gyroscope (X,Y, Z axis in degrees per second (°/s) )
采样率:平均每秒2个样本(行)
车:Ford Fiesta 1.4, Ford Fiesta 1.25, Hyundai i20
驾驶员:3 different drivers with the ages of 27, 28 and 37
Driver Behaviors:
- Sudden Acceleration (Class Label: 1)
- Sudden Right Turn (Class Label: 2)
- Sudden Left Turn (Class Label: 3)
- Sudden Break (Class Label: 4)
Best Window Size: 14 seconds
Sensor: MPU6050
Device: Raspberry Pi 3 Model B
包含两个传感器:accelerometer 和 gyroscope 以及对应的label(4个)
comma2k19
这是加利福尼亚280高速公路上超过33小时通勤的数据集。
在加利福尼亚州圣何塞和旧金山之间20公里的高速公路上行驶了2019段,每段1分钟。
comma2k19是一个完全可重现且可扩展的数据集。
数据采用comma EONs收集,其传感器类似于任何现代智能手机,包括道路相机,手机GPS,温度计和9轴IMU。
此外,EON还使用comma grey panda捕获原始GNSS测量值和汽车发送的所有CAN数据。
数据被分成10块,每一块大约200分钟的车程。数据集的1-2块是RAV4,其余的是civic。RAV4的dongle_id是b0c9d2329ad1606b, civic的dongle_id是99c94dc769b5d96e。
DBASA(已获得)
15个驾驶员,每个里面包含两个传感器:accelerometer 和 gyroscope
有个最终的数据集,记录AR、AL、AA、AB的值以及是否Aggressive
暂时无法对应相应的标签(是否Aggressive)
一些其他驾驶行为方面的数据集
- DBNet:厦门大学 SCSC 实验室李军教授团队与上海交大 MVIG 实验室卢策吾教授团队联合发布大规模驾驶行为数据集。DBNet 是专为研究驾驶行为的策略学习而设置的。DBNet 数据集记录了视频、激光雷达点云,以及对应的资深驾驶员(驾龄超过 10 年)的真实驾驶行为。
- HDD hdd@honda-ri.com
3个摄像头:记录影像最终被压缩成1280*720分辨率、30fps;
1个水平激光雷达:水平视角360度,垂直视角26.9度;
1个汽车动力运动分析器:记录陀螺仪、加速计和GPS信号;
1个汽车控制器区域网络(CAN):记录油门角度、刹车压力、轮胎角度、偏航率和速度等信息。 - H3D
- KTTI:数据集的语义标签包括‘Road’,‘City’,‘Person’,‘Campus’和‘Residential’五大类。对于3D物体检测,label细分为car, van, truck, pedestrian, pedestrian(sitting), cyclist, tram以及misc组成。
- 伯克利DeepDrive
- comma.ai
- Udacity
- smartphone_driving_dataset: image、CAN、smartphone
- AMUSE
- NHTSA
- WISDM 人类行为标签、 加速计和gps
- MotionSense Dataset : Smartphone Sensor Data - HAR 人类行为标签、 加速计和gps
- A Public Domain Dataset For Real-life Human Activity Recognition Using Smartphone Sensors
- SHPR2
视频类数据,推断车辆行为:
Apollo-scape数据集:1):Apollo-scape拥有广泛的驾驶场景/机动,如超车、变道。里面包含了大量复杂行为的实例,如超车,变道。一段驾驶视频
KITTI:
该数据集仅限于一个城市和城市周边地区,并且只有很少的高速公路。get自动驾驶行为预测的数据集
一些获取数据集的网站
驾驶事件识别一些应用
Driver-Behavior-Analysis
Recognition-of-Driver-behavior-using-Smartphone
driving
driving-behavior
Overall-Driving-Behavior-Recognition-By-Smartphone
驾驶风格识别。驾驶风格的定义有很多种,包括油耗、刹车、保持距离和侵略性。建立司机风格可以用来调整驾驶策略,如车道合并或提醒司机,如果他是鲁莽的[9]。最后,一些数据集[52]也收集了行人意向数据,如图3.10所示。然后可以训练算法来识别行人是否想过马路,并帮助防止碰撞。