semantickitti数据集在线测试 tum数据集_自动驾驶

标定数据总共提供四种:

  1.calib-cam1~8:相机标定,本质矩阵以及两个相机之间的姿态变换

  2.calib-imu1~4:IMU标定,找到相机和IMU之间的最优姿态变换

  3.calib-vignette2~3:光晕标定??

  4.calib-imu-static2:IMU标定,只包含IMU数据,用于估计IMU噪声和随机游走。格式timestamp, gyro_x, gyro_y, gyro_z, accel_x, accel_y, accel_z, temperature

数据集序列总共5种:
  1.corridor1~5(走廊):在走廊和几个办公室拍摄,只在开始和结束有真实值。
  2.magistrale1~6(大厅):在校园内的一个大厅拍摄,只在开始和结束有真实值。
  3.outdoors1~8(户外):在校园内的室外场景拍摄,只在开始和结束有真实值。
  4.room1~6(室内):对应有5个图像序列,整个过程都带有运动捕捉系统提高的真实值。
  5.slides1~3(滑梯):在大厅中拍摄,包含一段光照极差的路程,只在开始和结束有真实值。

由于 TUM数据集是从实际环境中采集的,需要解释一下它的数据格式(数据集一般都有自己定义的格式)。在解压后,你将看到以下这些文件:

  1. rgb.txt 和 depth.txt 记录了各文件的采集时间和对应的文件名。
  2. rgb/ 和 depth/目录存放着采集到的 png 格式图像文件。彩色图像为八位三通道,深
    度图为 16 位单通道图像。文件名即采集时间。
  3. groundtruth.txt 为外部运动捕捉系统采集到的相机位姿,格式为
    (time, t x , t y , t z , q x , q y , q z , q w ),
    我们可以把它看成标准轨迹。

rgb和depth文件夹下存放着彩色图和深度图。

semantickitti数据集在线测试 tum数据集_文件名_02

图像的文件名是以采集时间命名的。而rgb.txt和depth.txt则存储了所有图像的采集时间和文件名称,例如:

1305031910.765238 rgb/1305031910.765238.png

表示在机器时间1305031910.765238采集了一张RGB图像,存放于rgb/1305031910.765238.png中。

这种存储方式的一个特点是,没有直接的rgb-depth一一对应关系。由于采集时间的差异,几乎没有两张图像是同一个时刻采集的。然而,我们在处理图像时,需要把一个RGB和一个depth当成一对来处理。所以,我们需要一步预处理,找到rgb和depth图像的一一对应关系。

请注意彩色图、深度图和标准轨迹的采集都是独立的,轨迹的采集频率比图像高很多。在使用数据之前,需要根据采集时间,对数据进行一次时间上的对齐,以便对彩色图和深度图进行配对。原则上,我们可以把采集时间相近于一个阈值的数据,看成是一对图像。并把相近时间的位姿,看作是该图像的真实采集位置。

TUM为我们提供了一个工具来做这件事,详细的说明请看:http://vision.in.tum.de/data/datasets/rgbd-dataset/tools 该网页整理了一些常用工具,包括时间配对,ground-truth误差比对、图像到点云的转换等。对于现在预处理这一步,我们需要的是一个 associate.py 文件,如下(你可以直接把内容拷下来,存成本地的associate.py文件),请把此文件放到数据集目录下,
只要给它两个文件名即可,它会输出一个匹配好的序列,像这样:

python associate.py rgb.txt depth.txt

输出则是一行一行的数据,即是配对好的RGB图和深度图了,
1305031955.536891 rgb/1305031955.536891.png 1305031955.552015 depth/1305031955.552015.png

程序默认时间差在0.02内的就可以当成一对图像。为了保存这个结果,我们可以把它输出到一个文件中去,这样,只要有了这个associate.txt文件,我们就可以找到一对对的RGB和彩色图啦!如:

python associate.py rgb.txt depth.txt > associate.txt

这段脚本会根据输入两个文件中的采集时间进行配对,最后输出到一个文件 associate.txt。输出文件含有被配对的两个图像的时间、文件名信息,可以作为后续处理的来源。

请注意彩色图、深度图和标准轨迹的采集都是独立的,轨迹的采集频率比图像高很多。在使用数据之前,需要根据采集时间,对数据进行一次时间上的对齐,以便对彩色图和深度图进行配对。

semantickitti数据集在线测试 tum数据集_slam_03

关于ground truth

ground truth是TUM数据集提供的标准轨迹,它是由一个外部的(很高级的)运动捕捉装置测量的,基本上你可以把它当成一个标准答案喽!ground truth的记录格式也和前面类似,像这样:

1305031907.2496 -0.0730 -0.4169 1.5916 0.8772 -0.1170 0.0666 -0.4608

各个数据分别是:时间,位置(x,y,z),姿态四元数(qx, qy, qz, qw),对四元数不熟悉的同学可以看看“数学基础”那几篇博客。那么这个轨迹长什么样呢?我们写个小脚本来画个图看看:
复制代码:

#!/usr/bin/env python
# coding=utf-8

import numpy as np
import matplotlib.pyplot as plt
import mpl_toolkits.mplot3d

f = open("./groundtruth.txt")
x = []
y = []
z = []
for line in f:
    if line[0] == '#':
        continue
    data = line.split()
    x.append( float(data[1] ) )
    y.append( float(data[2] ) )
    z.append( float(data[3] ) )
ax = plt.subplot( 111, projection='3d')
ax.plot(x,y,z)
plt.show()

复制代码

复制代码

把这部分代码复制存储成draw_groundtruth.py存放到数据目录中,再运行:

python draw_groundtruth.py

就能看到轨迹的形状啦:

  

semantickitti数据集在线测试 tum数据集_数据_04

第二件事,因为外部那个运动捕捉装置的记录频率比较高,得到的轨迹点也比图像密集很多,如何查找每个图像的真实位置呢?

可以用同样的方式来匹配associate.txt和groundtruth.txt中的时间信息:

python associate.py associate.txt groundtruth.txt > associate_with_groundtruth.txt