交通场景自动语义标记算法研究
摘要 | 第5-6页 |
Abstract | 第6-7页 |
第1章 绪论 | 第12-21页 |
1.1 课题来源 | 第12页 |
1.2 研究背景与意义 | 第12-13页 |
1.3 国内外研究现状 | 第13-18页 |
1.4 本文主要工作 | 第18-19页 |
1.5 本文的结构 | 第19-21页 |
第2章 场景语义标记相关研究 | 第21-30页 |
2.1 图像标记方法介绍 | 第21-25页 |
2.1.1 图像标记的统计方法 | 第21-22页 |
2.1.2 基于机器学习的标记方法 | 第22-25页 |
2.2 图像尺度空间理论 | 第25-26页 |
2.3 超像素标记跟踪方法 | 第26-27页 |
2.4 基于超体元图的视频标记传播方法 | 第27-28页 |
2.5 本章小结 | 第28-30页 |
第3章 基于多尺度级联层次模型交通场景标记 | 第30-37页 |
3.1 多尺度模型框架 | 第31-32页 |
3.2 利用多尺数据空间建立度级联层次模型 | 第32-33页 |
3.2.1 多尺度分层空间建立 | 第32页 |
3.2.2 自下而上分层标记 | 第32-33页 |
3.2.3 自上而下的效果增强 | 第33页 |
3.3 迭代算法设计与收敛性证明 | 第33-35页 |
3.3.1 反馈迭代算法 | 第34页 |
3.3.2 算法收敛性证明 | 第34-35页 |
3.4 模型参数设置 | 第35-36页 |
3.5 本章小结 | 第36-37页 |
第4章 超体元跟踪方法的交通场景视频标记 | 第37-46页 |
4.1 超体元图构建 | 第37-40页 |
4.1.1 多标记对象超体元图构建 | 第37-39页 |
4.1.2 对象级标记外观的超像素模型构建 | 第39-40页 |
4.2 标记对象的超体元图的势能方程 | 第40-42页 |
4.2.1 单点势能 | 第40-41页 |
4.2.2 成对点势能 | 第41页 |
4.2.3 高阶势能 | 第41-42页 |
4.2.4 能量最小化和参数设置 | 第42页 |
4.3 对象级超体元集合跟踪 | 第42-45页 |
4.3.1 对象外观模型置信图 | 第43页 |
4.3.2 监控和动作模型 | 第43-44页 |
4.3.3 阻塞和漂移的预测更新 | 第44-45页 |
4.4 本章小结 | 第45-46页 |
第5章 实验 | 第46-58页 |
5.1 实验平台 | 第46页 |
5.2 数据集制作 | 第46-48页 |
5.2.1 鱼眼畸变矫正 | 第46-47页 |
5.2.2 手工标记标准数据集 | 第47-48页 |
5.3 交通场景图像标记实验 | 第48-54页 |
5.3.1 试验数据 | 第48-49页 |
5.3.2 标记试验设置 | 第49-54页 |
5.3.3 标记效果增强的结果 | 第54页 |
5.4 交通场景视频标记实验 | 第54-56页 |
5.4.1 数据集 | 第54-55页 |
5.4.2 方法介绍 | 第55页 |
5.4.3 实验结果分析 | 第55-56页 |
5.5 本章小结 | 第56-58页 |
结论 | 第58-60页 |
参考文献 | 第60-66页 |
附录A 攻读学位期间所发表的学术论文 | 第66-67页 |
附录B 攻读硕士期间参与的项目列表 | 第67-68页 |
致谢 | 第68页 |