摘要 | 第4-6页 |
Abstract | 第6-7页 |
1 绪论 | 第10-16页 |
1.1 研究目的和意义 | 第10-12页 |
1.2 音视频跟踪的国内外研究现状 | 第12-14页 |
1.2.1 听觉目标跟踪研究现状 | 第12-13页 |
1.2.2 视觉目标跟踪研究现状 | 第13-14页 |
1.3 研究内容与主要工作 | 第14-16页 |
2 基于音频信息的目标定位方法 | 第16-26页 |
2.1 引言 | 第16页 |
2.2 信号模型 | 第16-18页 |
2.3 音频端点检测算法 | 第18页 |
2.4 宽带频域波束形成算法 | 第18-20页 |
2.5 系统框架 | 第20-22页 |
2.5.1 麦克风阵列设计 | 第21-22页 |
2.5.2 信号采集系统设计 | 第22页 |
2.6 仿真实验 | 第22-25页 |
2.7 本章小结 | 第25-26页 |
3 基于视频信息的目标定位方法研究 | 第26-46页 |
3.1 图像处理的基本知识 | 第27-30页 |
3.1.1 数字图像的分类 | 第27页 |
3.1.2 数字图像的获取 | 第27-28页 |
3.1.3 彩色图像的灰度化 | 第28页 |
3.1.4 边缘检测 | 第28页 |
3.1.5 颜色空间 | 第28-30页 |
3.1.6 颜色直方图 | 第30页 |
3.2 视频目标检测方法概述 | 第30-35页 |
3.3 MEANSHIFT算法基础 | 第35-39页 |
3.3.1 核函数 | 第35-37页 |
3.3.2 MeanShift向量 | 第37-39页 |
3.4 跟踪算法原理 | 第39-41页 |
3.4.1 目标颜色模型 | 第39页 |
3.4.2 候选颜色模型 | 第39-40页 |
3.4.3 相似度函数 | 第40-41页 |
3.5 实验和结果分析 | 第41-45页 |
3.6 本章小结 | 第45-46页 |
4 音视频信息联合目标跟踪 | 第46-54页 |
4.1 总体设计 | 第46-48页 |
4.1.1 功能模块介绍 | 第46-47页 |
4.1.2 系统流程介绍 | 第47-48页 |
4.2 基于音视频信息融合的目标定位实验仿真和分析 | 第48-52页 |
4.3 本章小结 | 第52-54页 |
5 结束语 | 第54-55页 |
参考文献 | 第55-60页 |
个人简历、在学期间发表的学术论文与研究成果 | 第60-61页 |
致谢 | 第61页 |