机器人的视听觉交叉感知技术研究
| 摘要 | 第5-6页 |
| Abstract | 第6页 |
| 第一章 绪论 | 第9-13页 |
| 1.1 课题研究的背景与意义 | 第9-10页 |
| 1.2 机器人视听觉研究现状 | 第10-11页 |
| 1.3 本文主要的研究工作与内容安排 | 第11-13页 |
| 1.3.1 主要研究内容 | 第11-12页 |
| 1.3.2 本文组织安排 | 第12-13页 |
| 第二章 基于类脑的机器人视听觉交叉感知模型 | 第13-20页 |
| 2.1 人的听觉感知机理分析 | 第13-14页 |
| 2.2 人的视觉感知机理分析 | 第14-16页 |
| 2.3 人的视听觉交叉感知脑机制分析 | 第16-17页 |
| 2.4 基于类脑的视听觉交叉感知模式设计 | 第17-19页 |
| 2.5 小结 | 第19-20页 |
| 第三章 机器人听觉空间感知模型 | 第20-30页 |
| 3.1 人的听觉空间定位机制 | 第20-21页 |
| 3.2 基于人耳定位机制的时延估计算法 | 第21-24页 |
| 3.3 改进的时延估计定位算法 | 第24-28页 |
| 3.4 实验与分析 | 第28-29页 |
| 3.5 小结 | 第29-30页 |
| 第四章 基于HMAX模型的视觉空间感知 | 第30-46页 |
| 4.1 基于视觉感知的HMAX模型分析 | 第30-32页 |
| 4.2 HMAX视觉感知模型框架的结构分析 | 第32-33页 |
| 4.3 基于HMAX模型框架的机器人目标检测 | 第33-36页 |
| 4.4 基于HMAX模型框架的机器人目标识别 | 第36-40页 |
| 4.5 机器人的视觉空间定位 | 第40-43页 |
| 4.5.1 人的双目定位机理 | 第40-41页 |
| 4.5.2 机器人的双目定位 | 第41-43页 |
| 4.6 实验与分析 | 第43-45页 |
| 4.7 小结 | 第45-46页 |
| 第五章 机器人的视听觉交叉感知系统开发 | 第46-51页 |
| 5.1 机器人视听觉交叉感知系统组成 | 第46-49页 |
| 5.2 机器人系统仿真与实现 | 第49-50页 |
| 5.3 小结 | 第50-51页 |
| 第六章 总结与展望 | 第51-52页 |
| 6.1 本文工作总结 | 第51页 |
| 6.2 工作展望 | 第51-52页 |
| 参考文献 | 第52-55页 |
| 发表论文和科研情况说明 | 第55-56页 |
| 致谢 | 第56-57页 |