通过前面的相机标定,我们能够获得一些参数模型。但是这些相机的参数矩阵到底是什么意思?怎样才能够判断是否正确?误差都会来自哪里?这里就必须要通过具体实验来加深认识。采集带相机参数的图片具有一定难度,幸好我之前有着不错的积累—这里一共有两款数据集,一款来自《OpenCV计算机视觉编程攻略》第3版,家里面好像还有一款微单可以进行采集,这样我们可以进行交叉比对,看一看获得的参数是否符合实际情况:

数据集1  来自《OpenCV计算机视觉编程攻略》第3版


        


opencv 四维信息点 opencv三维_人工智能


数据集2 来自家中“国民床单”


opencv 四维信息点 opencv三维_5e_02

既然是做实验,我想初步计划一下。首先是要明确我能够获得那些东西?然后是比较这些东西是否真的像书上说的那样符合实际?然后我会添加一些干扰,看一看在有错误数据的情况,这些东西如何变化?最后是一个小结。

1、明确我能够获得那些东西?


通过前面的代码,我们大概是准备获得这样的东西:



<?xml version="1.0"?>
<opencv_storage>
<Intrinsic type_id="opencv-matrix">
  <rows>3</rows>
  <cols>3</cols>
  <dt>d</dt>
  <data>
    1.3589305122261344e+003 0. 5.7505355544729957e+002 
    0. 1.3565816672769690e+003 6.0423226535731465e+002 
    0. 0. 1.
   </data>
</Intrinsic>

<Distortion type_id="opencv-matrix">
  <rows>1</rows>
  <cols>14</cols>
  <dt>d</dt>
  <data>
    9.5113243912423840e+001 1.4262144540955842e+003
    5.2119492051277685e-003 2.8847713358900241e-003
    1.2859720255043484e+002 9.5182218776001392e+001
    1.4741397414456521e+003 6.8332022963370434e+002 0. 0. 0. 0. 0. 0.</data></Distortion>
</opencv_storage>

从结果上看,我将获得这两个矩阵。前面那个是相机内参矩阵,后面那个是外参数。那么在一组图片中,内参肯定是不变的;后面外参肯定是变化的。但是这里也有很多疑问。




opencv 四维信息点 opencv三维_xml_03




那么具体来看结果, 对于第一组图片来说,我们获得的结果为:


<?xml version="1.0"?>
<opencv_storage>
<Intrinsic type_id="opencv-matrix">
  <rows>3</rows>
  <cols>3</cols>
  <dt>d</dt>
  <data>
    4.0927176647992695e+002 0. 2.3724719115090161e+002      
            
           0. 4.0870629848642727e+002 1.7128731207874495e+002      
            
           0. 0. 1.      
            
          </data></Intrinsic>
<Distortion type_id="opencv-matrix">
  <rows>1</rows>
  <cols>14</cols>
  <dt>d</dt>
  <data>
    1.8631118716959048e+001 -5.0639175384902096e+001
    -5.2453807582033300e-003 -9.2620440694993842e-003
    5.2367454865598742e+000 1.9002289932447418e+001
    -4.8948501055979285e+001 -6.5115263545215851e-001 0. 0. 0. 0. 0. 0.</data></Distortion>
</opencv_storage>      
                        
     
    
            
              
        <?xml version="1.0"?>
<opencv_storage>
<Intrinsic type_id="opencv-matrix">
  <rows>3</rows>
  <cols>3</cols>
  <dt>d</dt>
  <data>
    3.9136489375791234e+003 0. 2.6879080836687035e+003       
              
            0. 3.9811430968074164e+003 1.9454067884808153e+003       
              
            0. 0. 1.       
              
          </data></Intrinsic>
<Distortion type_id="opencv-matrix">
  <rows>1</rows>
  <cols>14</cols>
  <dt>d</dt>
  <data>
    2.5259392493942739e-002 -3.2418875955674309e-001
    3.6376246418718853e-004 3.2526045276898190e-003
    -8.1692713459156296e-002 2.5694845194956913e-002
    4.7826938999253371e-001 -1.3315729771950511e+000 0. 0. 0. 0. 0. 0.</data></Distortion>
</opencv_storage>



对于第二组图片来说:




2、这些东西是否真的像书上说的那样符合实际?




对于第一套图片来说,看它的内参矩阵:


<data>
    4.0927176647992695e+002 0. 2.3724719115090161e+002 
    0. 4.0870629848642727e+002 1.7128731207874495e+002 
    0. 0. 1.
</data>



U0=237  V0 = 171,这个是代码计算值。从实际情况上来看,


opencv 四维信息点 opencv三维_人工智能_04


标准中间为 268,178,这个和237,171是比较符合的。



对于其它信息



opencv 四维信息点 opencv三维_opencv 四维信息点_05



这个焦距和我们计算出来的东西差距较大,如何比对?进一步研究,获得这个相机的参数:



opencv 四维信息点 opencv三维_数据集_06


可以获得,它的传感器尺寸为23.5mm X 15.7mm,那么像素宽度分别为0.0438(=23.5/536)和0.044,反过来算焦距为17.9,这个比较接近。



图片来说,那么它的固有参数为:


opencv 四维信息点 opencv三维_人工智能_07





opencv 四维信息点 opencv三维_opencv 四维信息点_08


opencv 四维信息点 opencv三维_人工智能_09


获得的结果:


<data>
    3.9136489375791234e+003 0. 2.6879080836687035e+003 
    0. 3.9811430968074164e+003 1.9454067884808153e+003 
    0. 0. 1.
  </data>



翻译一下,fx = 3913.6 fy=3981.1 U0=2687.9 V0=1945.4


5456/2 = 2728 3632/2=1816,这样的话,差距在1.5%,这个差距看上去比较大,但是相对值比书中提供的数据要小。


而对于焦距来说, 像素宽度分别为0.00425(= 23.2 /5456)和0.0386


算出来焦距为16.64和16.88,这个和16的差距也是比较合适的。





3、添加一些干扰,容错性如何?




最好的方法,是在有固定相机的情况下,重新采集一套图片,这个对于读者来说,如果有兴趣,可以来做。




4、小结




通过比较,可以发现一下几个特点:


1、书本上采集的图片,其角度范围更为广泛。所以说书上的采集方法对于我们后面做实际采集有指导意义;


2、棋盘的大小和最后是否能够产生良好结果关系不大,所以一个合适大小的棋盘就可以;


此外:


3、特别是对于视野比较广的情况,应该优先想出高效解决方法。我认为视场越大,误差越大;


4、对于大照片的处理,本身就是一个比较复杂的问题:因为像素比较高,所以处理起来比较慢;而又不能通过压缩之类的方法进行预处理,所以会有比较多的问题。目前还有没有很好解决方法;




此外,你还必须考虑标定的过程中失败的情况;还必须考虑采用什么模式能够让标定的效果最好。




感谢阅读至此,希望有所帮助。