可定位视频采集及其检索方法研究
摘要 | 第2-3页 |
ABSTRACT | 第3-4页 |
文摘 | 第5-10页 |
第一章 绪论 | 第10-18页 |
1.1 研究背景与意义 | 第10-12页 |
1.1.1 研究背景 | 第10-11页 |
1.1.2 研究意义 | 第11-12页 |
1.2 国内外研究进展 | 第12-14页 |
1.2.1 国外相关研究进展 | 第12-13页 |
1.2.2 国内相关研究进展 | 第13-14页 |
1.2.3 现有相关研究不足 | 第14页 |
1.3 研究目标与内容 | 第14-15页 |
1.3.1 研究目标 | 第14页 |
1.3.2 研究内容 | 第14-15页 |
1.4 技术路线 | 第15-16页 |
1.5 论文结构 | 第16-18页 |
第二章 关键技术综述 | 第18-24页 |
2.1 视频与空间信息融合方法 | 第18-20页 |
2.1.1 视频与GPS信息叠加 | 第18页 |
2.1.2 GPS信息调制音频信道 | 第18页 |
2.1.3 视频与GPS信息同步关联 | 第18-19页 |
2.1.4 GPS信息嵌入视频 | 第19页 |
2.1.5 分析与讨论 | 第19-20页 |
2.2 视频数据组织与检索 | 第20-22页 |
2.2.1 基于关键字的视频检索 | 第20-21页 |
2.2.2 基于内容的视频检索 | 第21页 |
2.2.3 基于空间信息的视频检索 | 第21-22页 |
2.2.4 分析与讨论 | 第22页 |
2.3 本章小结 | 第22-24页 |
第三章 可定位视频采集 | 第24-40页 |
3.1 可定位视频数据模型 | 第24-25页 |
3.1.1 可定位视频定义与特征 | 第24-25页 |
3.1.2 可定位视频数据结构 | 第25页 |
3.2 数据采集与编码 | 第25-33页 |
3.2.1 总体采集流程 | 第25-26页 |
3.2.2 视频数据采集 | 第26-27页 |
3.2.3 音频数据采集 | 第27-29页 |
3.2.4 地理位置采集 | 第29-31页 |
3.2.5 方位信息采集 | 第31-33页 |
3.3 数据融合与同步 | 第33-36页 |
3.3.1 空间信息与视频融合 | 第33-35页 |
3.3.2 音频与视频同步处理 | 第35-36页 |
3.4 采集测试 | 第36-37页 |
3.5 本章小节 | 第37-40页 |
第四章 可定位视频组织与检索 | 第40-52页 |
4.1 可定位视频空间表达 | 第40-42页 |
4.1.1 视频拍摄位置 | 第40页 |
4.1.2 视频拍摄轨迹 | 第40-41页 |
4.1.3 视频可视范围 | 第41-42页 |
4.2 数据组织与检索 | 第42-47页 |
4.2.1 GeoSOT网格原理 | 第43-44页 |
4.2.2 可定位视频数据组织 | 第44-47页 |
4.2.3 可定位视频空间检索 | 第47页 |
4.3 检索测试 | 第47-49页 |
4.4 本章小结 | 第49-52页 |
第五章 原型系统运行与实现 | 第52-58页 |
5.1 系统组成 | 第52-53页 |
5.2 系统开发及运行环境 | 第53页 |
5.3 系统总体设计 | 第53-54页 |
5.4 系统功能设计 | 第54-55页 |
5.5 系统的运行实例 | 第55-57页 |
5.6 本章小节 | 第57-58页 |
第六章 结论与展望 | 第58-60页 |
6.1 研究结论 | 第58-59页 |
6.2 创新点 | 第59页 |
6.3 研究展望 | 第59-60页 |
参考文献 | 第60-66页 |
攻读学位期间承当的科研任务与主要成果 | 第66-68页 |
致谢 | 第68-70页 |
个人简历 | 第70-74页 |