摘要 | 第4-6页 |
Abstract | 第6-7页 |
第一章 绪论 | 第15-27页 |
1.1 课题背景 | 第15-18页 |
1.2 研究现状与挑战 | 第18-23页 |
1.3 本文研究工作 | 第23-27页 |
1.3.1 本文工作 | 第23-25页 |
1.3.2 论文结构 | 第25-27页 |
第二章 视觉场景理解与交互技术综述 | 第27-55页 |
2.1 视觉场景理解 | 第27-44页 |
2.1.1 物体检测和识别算法 | 第27-31页 |
2.1.2 文字检测与识别 | 第31-40页 |
2.1.3 场景标注 | 第40-44页 |
2.2 人机交互技术 | 第44-54页 |
2.2.1 三维重建 | 第45-46页 |
2.2.2 多媒体人机交互方式 | 第46-49页 |
2.2.3 三维模型交互编辑方法 | 第49-54页 |
2.3 本章小结 | 第54-55页 |
第三章 基于外观与上下文信息的多类物体检测与识别方法 | 第55-64页 |
3.1 引言 | 第55-56页 |
3.2 算法流程 | 第56-60页 |
3.2.1 多类霍夫森林 | 第56-58页 |
3.2.2 上下文模型 | 第58-60页 |
3.2.3 贪婪搜索算法 | 第60页 |
3.3 实验结果与讨论 | 第60-63页 |
3.3.1 九类对象数据库 | 第60-61页 |
3.3.2 LabelMe数据库 | 第61-63页 |
3.4 本章小结 | 第63-64页 |
第四章 基于细化重建和轮廓恢复的场景文字检测与识别方法 | 第64-97页 |
4.1 引言 | 第64-65页 |
4.2 基于环半径变化的多方向场景文字细化重建方法 | 第65-82页 |
4.2.1 算法流程 | 第66-73页 |
4.2.2 实验结果与讨论 | 第73-82页 |
4.3 场景/视频图像中的字符轮廓恢复方法 | 第82-95页 |
4.3.1 算法流程 | 第83-91页 |
4.3.2 实验结果与讨论 | 第91-95页 |
4.4 本章小结 | 第95-97页 |
第五章 基于Kinect的实时三维模型交互编辑方法 | 第97-122页 |
5.1 引言 | 第97页 |
5.2 基于Kinect的鲁棒人体动作捕捉 | 第97-98页 |
5.3 实时的增量式三维模型交互编辑方法 | 第98-112页 |
5.3.1 引言 | 第98-100页 |
5.3.2 算法流程 | 第100-101页 |
5.3.3 增量式的简化三维模型编辑方法 | 第101-107页 |
5.3.4 实验结果与讨论 | 第107-112页 |
5.4 Kinect驱动的实时增量式三维模型交互编辑方法 | 第112-121页 |
5.4.1 算法流程 | 第113-118页 |
5.4.2 实验结果与讨论 | 第118-121页 |
5.5 本章小结 | 第121-122页 |
第六章 基于视觉场景感知的雕塑姿态设计平台应用研究 | 第122-131页 |
6.1 引言 | 第122-125页 |
6.2 初始化雕塑设计 | 第125-126页 |
6.2.1 多视角图像协同分割 | 第125页 |
6.2.2 增量式三维重建 | 第125-126页 |
6.3 实时的Kinect驱动的雕塑姿态设计平台 | 第126-127页 |
6.3.1 构建拉普拉斯频谱空间 | 第126-127页 |
6.3.2 候选编辑点搜索 | 第127页 |
6.4 实验结果与讨论 | 第127-130页 |
6.5 本章小结 | 第130-131页 |
第七章 总结与展望 | 第131-134页 |
7.1 本文工作总结 | 第131-132页 |
7.2 下一步研究方向 | 第132-134页 |
参考文献 | 第134-157页 |
简历与科研成果 | 第157-160页 |
致谢 | 第160-161页 |