摘要 | 第4-5页 |
abstract | 第5-6页 |
第一章 绪论 | 第9-15页 |
1.1 研究背景及意义 | 第9-10页 |
1.2 国内外研究现状 | 第10-11页 |
1.2.1 国外研究现状 | 第10-11页 |
1.2.2 国内研究现状 | 第11页 |
1.3 研究内容与技术路线 | 第11-14页 |
1.3.1 研究内容 | 第11-12页 |
1.3.2 技术路线 | 第12-14页 |
1.4 文章结构安排 | 第14-15页 |
第二章 隧道交通及视觉特性分析 | 第15-29页 |
2.1 隧道交通环境特性 | 第15-18页 |
2.1.1 光环境特性 | 第15-17页 |
2.1.2 车速特性 | 第17页 |
2.1.3 运营管理特性 | 第17-18页 |
2.2 隧道交通事故特性 | 第18-21页 |
2.2.1 事故时间分布特性 | 第19页 |
2.2.2 事故空间分布特性 | 第19-20页 |
2.2.3 事故因素分析 | 第20-21页 |
2.3 隧道驾驶人视觉特性 | 第21-28页 |
2.3.1 驾驶人动态视觉特性 | 第21-22页 |
2.3.2 驾驶人视觉适应分析 | 第22-23页 |
2.3.3 驾驶人视觉舒适性表征 | 第23-28页 |
2.4 本章小结 | 第28-29页 |
第三章 隧道出入口视觉亮度补偿模型建立 | 第29-45页 |
3.1 视觉亮度补偿模型概述 | 第29-30页 |
3.2 视频帧匹配 | 第30-37页 |
3.2.1 SIFT特征提取 | 第30-35页 |
3.2.2 SIFT特征粗匹配 | 第35-36页 |
3.2.3 基于RANSAC的SIFT精匹配 | 第36-37页 |
3.3 视频帧对齐变换 | 第37-43页 |
3.3.1 APAP变换模型 | 第38-39页 |
3.3.2 SPHP变换模型 | 第39-42页 |
3.3.3 SPHP+APAP变换模型 | 第42-43页 |
3.4 视频帧融合 | 第43-44页 |
3.5 本章小结 | 第44-45页 |
第四章 基于时空内容保持的隧道出入口视觉亮度补偿实现 | 第45-62页 |
4.1 视频预处理 | 第45-50页 |
4.1.1 人眼未感知像素对数 | 第45-46页 |
4.1.2 时空方向能量特征 | 第46-47页 |
4.1.3 非舒适序列和亮度补偿帧的确定 | 第47-50页 |
4.2 基于时空内容保持的视觉亮度补偿 | 第50-54页 |
4.2.1 SIFT特征提取及匹配 | 第50-51页 |
4.2.2 视频帧变换融合 | 第51-53页 |
4.2.3 视频帧替换 | 第53-54页 |
4.3 实验结果与分析 | 第54-61页 |
4.3.1 实验数据和过程说明 | 第54-55页 |
4.3.2 实验评价指标选取 | 第55-56页 |
4.3.3 实验结果分析 | 第56-61页 |
4.4 本章小结 | 第61-62页 |
总结与展望 | 第62-64页 |
本文工作总结 | 第62-63页 |
后续工作展望 | 第63-64页 |
参考文献 | 第64-69页 |
攻读学位期间取得的研究成果 | 第69-70页 |
致谢 | 第70页 |