基于视觉和听觉融合的移动机器人目标识别与定位方法研究
摘要 | 第3-4页 |
Abstract | 第4页 |
1. 绪论 | 第8-14页 |
1.1 研究的背景和意义 | 第8-9页 |
1.2 国内外研究现状 | 第9-12页 |
1.2.1 基于麦克风阵列的声源定位 | 第9-11页 |
1.2.2 人脸识别和说话人识别 | 第11页 |
1.2.3 多生物特征融合识别 | 第11-12页 |
1.3 多生物特征识别存在的问题 | 第12-13页 |
1.4 论文主要研究内容和结构 | 第13-14页 |
2. 视听融合机器人方案设计 | 第14-19页 |
2.1 视听信息交互原理 | 第14-15页 |
2.2 视听融合机器人技术方案 | 第15-18页 |
2.2.1 应用需求分析 | 第15页 |
2.2.2 机器入视听交互控制 | 第15-16页 |
2.2.3 系统体系结构 | 第16页 |
2.2.4 模块设计 | 第16-18页 |
2.3 本章小结 | 第18-19页 |
3. 基于麦克风阵列的目标定位 | 第19-29页 |
3.1 基于麦克风阵列的声源定位 | 第19-24页 |
3.1.1 基于到达时间差定位方法 | 第19-20页 |
3.1.2 高分辨率谱估计法 | 第20-22页 |
3.1.3 可控波形定位法 | 第22-24页 |
3.2 目标声源位置估计 | 第24-28页 |
3.2.1 基于广义特征值分解的角度定位 | 第24-25页 |
3.2.2 目标距离估计 | 第25-26页 |
3.2.3 实验分析 | 第26-28页 |
3.3 本章小结 | 第28-29页 |
4. 人脸和说话人识别技术 | 第29-52页 |
4.1 人脸识别 | 第29-39页 |
4.1.1 人脸检测 | 第29-33页 |
4.1.2 人脸特征提取 | 第33-35页 |
4.1.3 稀疏表示的人脸识别 | 第35-37页 |
4.1.4 实验分析 | 第37-39页 |
4.2 说话人识别 | 第39-50页 |
4.2.1 Mel频率倒谱系数的分析 | 第40-42页 |
4.2.2 语音特征提取 | 第42-46页 |
4.2.3 基于矢量量化的说话人识别 | 第46-50页 |
4.2.4 实验分析 | 第50页 |
4.3 本章小结 | 第50-52页 |
5. 基于视听信息的融合识别 | 第52-59页 |
5.1 视听特征融合识别的处理流程 | 第52页 |
5.2 基于最优匹配的加权融合识别 | 第52-55页 |
5.2.1 最优匹配的加权融合 | 第52-53页 |
5.2.2 实验分析 | 第53-55页 |
5.3 基于模糊积分的融合识别 | 第55-58页 |
5.3.1 模糊积分和模糊测度 | 第55-56页 |
5.3.2 基于模糊积分的语音和人脸融合 | 第56页 |
5.3.3 实验分析 | 第56-58页 |
5.4 本章小结 | 第58-59页 |
6. 目标定位与识别系统设计及实现 | 第59-62页 |
6.1 系统设计 | 第59-60页 |
6.2 系统实现 | 第60-61页 |
6.3 本章小结 | 第61-62页 |
7. 总结与展望 | 第62-64页 |
7.1 总结 | 第62-63页 |
7.2 展望 | 第63-64页 |
致谢 | 第64-65页 |
参考文献 | 第65-70页 |
附录 | 第70页 |