基于听觉显示的电子行走辅助技术研究
第一章 绪论 | 第1-15页 |
1.1 听觉显示技术研究 | 第8-11页 |
1.1.1 听觉显示研究的意义 | 第8-9页 |
1.1.2 听觉显示研究的历史与现状 | 第9-10页 |
1.1.3 听觉显示应用前景与发展趋势 | 第10-11页 |
1.2 电子行走辅助(ETA)技术研究 | 第11-12页 |
1.2.1 ETA技术研究的意义 | 第11页 |
1.2.2 ETA技术研究的历史与现状 | 第11-12页 |
1.3 ETA与听觉显示的关系 | 第12-13页 |
1.4 本文的工作和主要内容 | 第13-15页 |
第二章 听觉显示基础与实现方法 | 第15-28页 |
2.1 听觉显示的基础 | 第15-22页 |
2.1.1 声音的维度 | 第15-17页 |
2.1.2 听觉的基本特性 | 第17-20页 |
2.1.3 声音表达数据信息的原则 | 第20-21页 |
2.1.4 听觉感知的研究内容 | 第21-22页 |
2.2 声音实现的方法与原理 | 第22-24页 |
2.2.1 MIDI和音乐 | 第22-24页 |
2.2.2 WAVE数字音频数据 | 第24页 |
2.2.3 语音合成技术 | 第24页 |
2.3 听觉显示开发工具 | 第24-28页 |
2.3.1 听觉显示开发工具及其要求 | 第25-26页 |
2.3.2 听觉显示开发平台ADK | 第26-28页 |
第三章 电子行走辅助技术研究概况 | 第28-37页 |
3.1 ETA的发展 | 第28-30页 |
3.2 ETA系统的结构与分类 | 第30-32页 |
3.2.1 ETA系统的概念模型 | 第30页 |
3.2.2 ETA系统的分类 | 第30-32页 |
3.2.3 ETA系统的设计原则 | 第32页 |
3.3 典型ETA系统案例分析 | 第32-34页 |
3.3.1 Tyflos盲人智能助手 | 第32-33页 |
3.3.2 vOICe系统 | 第33-34页 |
3.3.3 Navbelt系统 | 第34页 |
3.4 现有ETA系统的优缺点分析 | 第34-37页 |
第四章 AudioMan系统的设计与开发 | 第37-62页 |
4.1 AudioMan的研究目的 | 第37-38页 |
4.2 AudioMan的结构及其流程图 | 第38-41页 |
4.3 交互设计原理和环境信息映射方案 | 第41-47页 |
4.3.1 交互设计的基本概念 | 第41-42页 |
4.3.2 交互设计的目标 | 第42-43页 |
4.3.3 映射方案的概念设计 | 第43-45页 |
4.3.4 构建原型映射方案 | 第45-47页 |
4.4 算法的选择与实现 | 第47-56页 |
4.4.1 环境信息提取算法 | 第47-51页 |
4.4.2 环境信息映射实现 | 第51-56页 |
4.5 各模块功能及其关系 | 第56-62页 |
4.5.1 主控模块及其相关线程 | 第56-57页 |
4.5.2 图像处理模块及其相关线程 | 第57-59页 |
4.5.3 数据映射/声音合成模块及其相关线程 | 第59-62页 |
第五章 系统学习与评估 | 第62-69页 |
5.1 AudioMan系统的运行方式 | 第62-64页 |
5.1.1 实时处理的运行方式 | 第62-63页 |
5.1.2 脱机运行方式 | 第63-64页 |
5.2 方向映射方案的评估及其结果 | 第64-69页 |
5.2.1 评估什么 | 第65页 |
5.2.2 为什么要评估 | 第65-66页 |
5.2.3 评估的范型和技术 | 第66-67页 |
5.2.4 评估结果及其分析 | 第67-69页 |
第六章 结束语 | 第69-71页 |
附录1 | 第71-72页 |
附录2 | 第72-74页 |
参考文献 | 第74-78页 |
致谢 | 第78-79页 |
读研期间发表的论文 | 第79页 |