摘要 | 第1-6页 |
ABSTRACT | 第6-10页 |
第一章 绪论 | 第10-21页 |
§1-1 课题研究的背景与意义 | 第10页 |
§1-2 机器人听觉的应用和研究现状 | 第10-13页 |
1-2-1 机器人听觉应用 | 第10-11页 |
1-2-2 机器人听觉系统的研究现状 | 第11-13页 |
§1-3 声源定位的关键技术和研究现状 | 第13-19页 |
1-3-1 声源定位的关键技术 | 第13-16页 |
1-3-2 声源定位技术的研究现状 | 第16-19页 |
§1-4 论文的主要研究内容 | 第19-21页 |
第二章 多感官拟人机器人系统构成与设计 | 第21-30页 |
§2-1 拟人机器人头部的结构设计和控制系统 | 第21-25页 |
§2-2 拟人机器人行走机构设计 | 第25-26页 |
§2-3 拟人机器人立体视觉系统的设计 | 第26-28页 |
§2-4 拟人机器人听觉系统设计 | 第28页 |
§2-5 本章小结 | 第28-30页 |
第三章 传声器阵列声源定位的时延估计技术 | 第30-48页 |
§3-1 时延估计的含义 | 第30-31页 |
§3-2 时延估计技术 | 第31-42页 |
3-2-1 互相关时延估计法 | 第31-32页 |
3-2-2 广义互相关时延估计法 | 第32-34页 |
3-2-3 改进的广义互相关时延估计法(M-GCC) | 第34-37页 |
3-2-4 基于LMS的自适应时延估计法 | 第37-38页 |
3-2-5 基于人耳感知特性的时延估计法 | 第38-42页 |
§3-3 时延估计算法性能实验分析 | 第42-47页 |
3-3-1 实验环境 | 第43页 |
3-3-2 实验信号预处理 | 第43-44页 |
3-3-3 实验结果与分析 | 第44-47页 |
§3-4 本章小结 | 第47-48页 |
第四章 基于时延的声源定位技术 | 第48-57页 |
§4-1 声源定位技术 | 第48-51页 |
4-1-1 声源信号模型 | 第48-50页 |
4-1-2 传声器和声源的几何模型 | 第50-51页 |
§4-2 基于时延的定位方法 | 第51-56页 |
4-2-1 角度距离定位法 | 第51-52页 |
4-2-2 球形插值法 | 第52-53页 |
4-2-3 线性插值法 | 第53-55页 |
4-2-4 目标函数空间搜索声源定位法 | 第55-56页 |
§4-3 本章小结 | 第56-57页 |
第五章 基于机器人听觉的声源定位与搜索策略 | 第57-80页 |
§5-1 基于机器人听觉的声源定位 | 第57-67页 |
5-1-1 听觉传感器阵列的选择 | 第58-59页 |
5-1-2 声源定位实现 | 第59-60页 |
5-1-3 听觉定位误差分析 | 第60-67页 |
§5-2 基于行为控制的机器人声源搜索策略 | 第67-72页 |
5-2-1 机器人声源搜索方案 | 第68-69页 |
5-2-2 机器人声源搜索的行为控制结构 | 第69-70页 |
5-2-3 基于模糊控制的机器人避障系统 | 第70-72页 |
§5-3 机器人听觉实验研究 | 第72-79页 |
5-3-1 机器人听觉定位实验研究 | 第72-75页 |
5-3-2 机器人听觉搜索实验研究 | 第75-79页 |
§5-4 本章小结 | 第79-80页 |
第六章 基于机器人视听融合的声源搜索策略 | 第80-102页 |
§6-1 机器人视觉系统 | 第80-89页 |
6-1-1 机器人的双目立体视觉技术 | 第80-84页 |
6-1-2 基于颜色模型的声源模型库建立 | 第84-89页 |
§6-2 基于多层黑板模型的视听融合机器人声源搜索策略 | 第89-95页 |
6-2-1 机器人视听融合声源搜索方案 | 第89-90页 |
6-2-2 黑板模型 | 第90-91页 |
6-2-3 基于多层黑板模型的视听融合机器人声源搜索 | 第91-95页 |
§6-3 视听融合声源搜索实验研究 | 第95-100页 |
6-3-1 视听融合实验方案 | 第95-96页 |
6-3-2 实验结果与分析 | 第96-100页 |
§6-4 本章小结 | 第100-102页 |
第七章 结论和展望 | 第102-105页 |
§7-1 结论 | 第102-103页 |
§7-2 展望 | 第103-105页 |
参考文献 | 第105-112页 |
致谢 | 第112-113页 |
攻读博士学位期间所取得的科研成果 | 第113-114页 |