摘要 | 第3-5页 |
abstract | 第5-6页 |
第1章 引言 | 第10-17页 |
1.1 课题背景与意义 | 第10-14页 |
1.1.1 街景数据的采集 | 第12-13页 |
1.1.2 街景数据的特点 | 第13-14页 |
1.2 研究内容与创新点 | 第14-15页 |
1.3 本文组织结构 | 第15-17页 |
第2章 忠于原图的图像补全方法 | 第17-43页 |
2.1 引言 | 第17-18页 |
2.2 相关工作 | 第18-20页 |
2.3 概览 | 第20-22页 |
2.4 候选图像的过滤 | 第22-23页 |
2.5 联合匹配 | 第23-24页 |
2.6 基于点约束和线约束的变形 | 第24-28页 |
2.6.1 能量方程 | 第26-28页 |
2.6.2 迭代优化 | 第28页 |
2.7 结果排序 | 第28-29页 |
2.8 实验结果与讨论 | 第29-31页 |
2.8.1 实现细节 | 第29页 |
2.8.2 结果展示 | 第29-30页 |
2.8.3 点约束和线约束 | 第30页 |
2.8.4 与PatchNet和Scene Completion的对比 | 第30页 |
2.8.5 与Moving Least-Squares Deformation的对比 | 第30页 |
2.8.6 与单投影变换和多投影变换的方法的对比 | 第30-31页 |
2.8.7 景深增加 | 第31页 |
2.8.8 局限性 | 第31页 |
2.9 忠于原图的图像补全方法在街景中的应用 | 第31-36页 |
2.10 基于深度学习的图像补全 | 第36-41页 |
2.10.1 基于卷积神经网络的相似图像搜索 | 第39页 |
2.10.2 相容值查找表的建立 | 第39-40页 |
2.10.3 语义敏感的边界计算 | 第40-41页 |
2.11 本章小结 | 第41-43页 |
第3章 全景图图像的补全方法 | 第43-58页 |
3.1 引言 | 第43-44页 |
3.2 结构修正的变形 | 第44-47页 |
3.2.1 保直线结构 | 第45-46页 |
3.2.2 保局部形状 | 第46-47页 |
3.2.3 总能量项与优化 | 第47页 |
3.3 补全 | 第47-48页 |
3.4 实验结果 | 第48-49页 |
3.5 全景图图像补全在街景消隐中的应用 | 第49-50页 |
3.6 全景图拼接融合 | 第50-51页 |
3.6.1 实验环境 | 第50页 |
3.6.2 融合效率对比 | 第50-51页 |
3.6.3 融合质量对比 | 第51页 |
3.6.4 结果及讨论 | 第51页 |
3.7 本章小结 | 第51-58页 |
第4章 交通标志定位优化 | 第58-75页 |
4.1 引言 | 第58-60页 |
4.2 相关工作 | 第60-61页 |
4.3 算法 | 第61-66页 |
4.3.1 数据项 | 第62-63页 |
4.3.2 平滑项 | 第63页 |
4.3.3 迭代优化 | 第63-64页 |
4.3.4 投影变换估计 | 第64页 |
4.3.5 实现细节 | 第64-66页 |
4.4 实验结果 | 第66-73页 |
4.4.1 在GTSDB数据集上的实验 | 第66-67页 |
4.4.2 在CTSDB数据集上的实验 | 第67-71页 |
4.4.3 形状约束带来的好处 | 第71-72页 |
4.4.4 方法的限制 | 第72-73页 |
4.5 本章小结 | 第73-75页 |
第5章 自然场景中的交通标志检测和分类 | 第75-87页 |
5.1 引言 | 第75-78页 |
5.2 相关工作 | 第78-79页 |
5.2.1 交通标志的分类 | 第78页 |
5.2.2 基于卷积神经网络的物体检测 | 第78-79页 |
5.3 清华-腾讯100K数据集 | 第79-81页 |
5.3.1 数据集的建立 | 第79页 |
5.3.2 数据标注 | 第79-80页 |
5.3.3 数据集统计数据 | 第80-81页 |
5.4 神经网络 | 第81-84页 |
5.4.1 网络结构 | 第81-84页 |
5.4.2 数据增强 | 第84页 |
5.5 实验 | 第84-86页 |
5.5.1 检测 | 第85页 |
5.5.2 检测与分类 | 第85-86页 |
5.6 本章总结 | 第86-87页 |
第6章 总结与展望 | 第87-89页 |
6.1 工作总结 | 第87-88页 |
6.2 未来工作的展望 | 第88-89页 |
参考文献 | 第89-97页 |
致谢 | 第97-99页 |
个人简历、在学期间发表的学术论文与研究成果 | 第99-100页 |