基于三维模型的自动语义标注研究与应用
摘要 | 第3-5页 |
ABSTRACT | 第5-6页 |
第一章 绪论 | 第10-20页 |
1.1 研究背景与意义 | 第10-11页 |
1.2 国内外研究现状 | 第11-17页 |
1.2.1 三维模型技术的发展应用 | 第11-12页 |
1.2.2 三维模型的半自动语义标注方法 | 第12-15页 |
1.2.3 三维模型的自动语义标注方法 | 第15-16页 |
1.2.4 三维模型的增强标注方法 | 第16-17页 |
1.2.5 语义标注研究现状的总结 | 第17页 |
1.3 本文研究内容 | 第17-18页 |
1.4 论文组织结构 | 第18-20页 |
第二章 三维模型语义标注框架 | 第20-24页 |
2.1 应用场景分析 | 第20-21页 |
2.2 需求分析 | 第21-23页 |
2.2.1 系统用例分析 | 第21-22页 |
2.2.2 系统性能要求 | 第22-23页 |
2.3 三维模型的自动化语义标注总体框架 | 第23页 |
2.4 本章小结 | 第23-24页 |
第三章 三维模型的自动语义标注 | 第24-38页 |
3.1 基于图像的三维语义标注方法思路 | 第24页 |
3.2 三维模型转二维图像方法 | 第24-28页 |
3.2.1 图像转换Base64码机制 | 第24-26页 |
3.2.2 三维模型转换二维图像 | 第26-27页 |
3.2.3 图像尺寸的智能缩放算法 | 第27-28页 |
3.3 图像分析及相似度比较方法 | 第28-32页 |
3.3.1 二维图像的结构 | 第28-29页 |
3.3.2 图像相似度比较的框架 | 第29页 |
3.3.3 图像相似度比较 | 第29-32页 |
3.4 基于图像的语义标注方法 | 第32-36页 |
3.4.1 图像识别语义标注框架 | 第32-34页 |
3.4.2 二维图像转换的存储方法 | 第34页 |
3.4.3 图像识别语义标注的工作流程 | 第34-36页 |
3.5 基于相似图像的模型语义获取 | 第36-37页 |
3.6 本章小结 | 第37-38页 |
第四章 增强自动语义标注方法 | 第38-47页 |
4.1 视频语义标注方法思路 | 第38-39页 |
4.2 基于浏览器的视频处理基础 | 第39-42页 |
4.3 视频的自动截取画面 | 第42-45页 |
4.4 视频资源的语义标注 | 第45-46页 |
4.5 本章小结 | 第46-47页 |
第五章 自动语义标注系统设计与实现 | 第47-61页 |
5.1 自动语义标注系统的实现软件架构 | 第47-48页 |
5.2 三维模型的自动语义标注过程 | 第48-57页 |
5.2.1 三维模型的导入和展示 | 第48-50页 |
5.2.2 维模型转二维图像实现 | 第50-52页 |
5.2.3 自动识别图像的语义标注方法实现 | 第52-57页 |
5.3 基于浏览器的图像基本分析及相似度比较 | 第57-60页 |
5.3.1 前段的图像自动分析 | 第57-58页 |
5.3.2 二维图像的相似度比较 | 第58-60页 |
5.4 本章小结 | 第60-61页 |
第六章 系统应用验证与实验结果 | 第61-79页 |
6.1 三维模型自动语义标注系统原型 | 第61-66页 |
6.1.1 三维模型的导入和展示平台 | 第61-62页 |
6.1.2 二维图像分析及相似度比较 | 第62-64页 |
6.1.3 基于图像识别的语义标注过程 | 第64-66页 |
6.2 视频资源的自动语义标注系统原型 | 第66-68页 |
6.2.1 视频资源的数据管理 | 第66页 |
6.2.2 视频播放器操作界面 | 第66-67页 |
6.2.3 视频资源的画面截图语义标注 | 第67-68页 |
6.3 应用效果及分析讨论 | 第68-78页 |
6.3.1 三维模型转换二维图像实验 | 第68-70页 |
6.3.2 二维图像相似度比较实验 | 第70-73页 |
6.3.3 基于图像识别的语义标注实验 | 第73-74页 |
6.3.4 基于视频资源的自动语义标注实验 | 第74-75页 |
6.3.5 本文系统与其他系统的比较 | 第75-78页 |
6.4 本章结论 | 第78-79页 |
第七章 总结与展望 | 第79-82页 |
7.1 主要的研究工作总结 | 第79-80页 |
7.2 未来的工作展望 | 第80-82页 |
参考文献 | 第82-85页 |
谢辞 | 第85-86页 |
攻读学位期间发表的学术论文目录 | 第86-88页 |