论文目录 | |
摘要 | 第1-6页 |
ABSTRACT | 第6-10页 |
第一章 绪论 | 第10-17页 |
1.1 研究背景和意义 | 第10-11页 |
1.2 国内外研究现状 | 第11-14页 |
1.3 本文的主要工作 | 第14-15页 |
1.4 本文结构与章节安排 | 第15-16页 |
1.5 本章小结 | 第16-17页 |
第二章 双目立体视觉三维重建 | 第17-41页 |
2.1 摄像机模型及相关多视几何 | 第18-24页 |
2.1.1 摄像机模型 | 第18-21页 |
2.1.2 相关多视几何 | 第21-24页 |
2.2 立体标定 | 第24-29页 |
2.2.1 单个摄像机标定 | 第24-26页 |
2.2.2 双目立体标定 | 第26-27页 |
2.2.3 双目立体标定实验 | 第27-29页 |
2.3 双目立体矫正 | 第29-32页 |
2.4 双目立体匹配 | 第32-38页 |
2.4.1 双目视图预处理 | 第32页 |
2.4.2 双目匹配代价计算 | 第32-33页 |
2.4.3 双目匹配代价聚集 | 第33-34页 |
2.4.4 视差计算和优化 | 第34-36页 |
2.4.5 视差求精和修正 | 第36页 |
2.4.6 双目立体匹配实验 | 第36-38页 |
2.5 恢复场景深度和点云 | 第38-40页 |
2.6 本章小结 | 第40-41页 |
第三章 KINECT室内场景三维建模 | 第41-54页 |
3.1 基于结构光技术的恢复深度 | 第41-45页 |
3.2 由KINECT深度图像到三维点云重建 | 第45-47页 |
3.2.1 Kinect点云重建方法 | 第45页 |
3.2.2 Kinect深度相机标定及点云重建实验 | 第45-47页 |
3.3 深度图像增强 | 第47-50页 |
3.3.1 单帧和连续的Kinect深度增强原理及技术 | 第47-48页 |
3.3.2 Kinect深度增强实验 | 第48-50页 |
3.4 三维模型配准融合 | 第50-51页 |
3.5 KINECT全局三维模型生成 | 第51-53页 |
3.5.1 水平集方法——截断的符号距离方程(TSDF) | 第51-52页 |
3.5.2 多边形网格的曲面重建 | 第52页 |
3.5.3 Kinect单帧点云曲面重建实验 | 第52-53页 |
3.6 本章小结 | 第53-54页 |
第四章 结合立体视觉的KINECT点云配准融合 | 第54-86页 |
4.1 传统点到点的ICP点云配准技术 | 第55-62页 |
4.1.1 基于SVD方法的ICP点云配准 | 第55-58页 |
4.1.2 ICP算法的变种 | 第58-60页 |
4.1.3 ICP算法直接配准点云实验 | 第60-62页 |
4.2 用纹理特征作初始配准的ICP配准技术 | 第62-70页 |
4.2.1 几种二维特征检测及描述算子 | 第62-65页 |
4.2.2 结合纹理特征点的初始配准 | 第65-66页 |
4.2.3 纹理特征初始配准的实验效果 | 第66-70页 |
4.3 基于几何特征的配准的ICP技术 | 第70-73页 |
4.3.1 快速点特征直方图(PFPH) | 第70-72页 |
4.3.2 基于FPFH的RANSAC点云初始配准 | 第72页 |
4.3.3 基于均匀降采样点的FPFH特征初始配准实验 | 第72-73页 |
4.4 LM_ICP | 第73-75页 |
4.4.1 LM方法最优化点到面形式配准问题 | 第74-75页 |
4.4.2 基于纹理特征点的LM_ICP点云配准实验 | 第75页 |
4.5 KINECT+STEREO输出点云深度修正 | 第75-79页 |
4.6 结合后KINECT+STEREO摄像机三维重建适用范围的增大 | 第79-85页 |
4.7 本章总结 | 第85-86页 |
第五章 总结与展望 | 第86-88页 |
5.1 本文工作总结 | 第86-87页 |
5.2 不足之处与展望 | 第87-88页 |
致谢与感言 | 第88-89页 |
参考文献 | 第89-94页 |
攻读硕士学位期间取得的成果 | 第94-95页 |