听觉显示开发平台的设计及应用
摘要 | 第1-3页 |
Abstract | 第3-6页 |
第一章 绪论 | 第6-10页 |
·人机交互面临的挑战 | 第6-7页 |
·海量数据的处理 | 第6页 |
·传统交互方式及其局限性 | 第6-7页 |
·可听化研究 | 第7-9页 |
·可听化研究的意义 | 第7-8页 |
·可听化研究的历史及现状 | 第8-9页 |
·听觉显示工具 | 第9页 |
·本文的工作 | 第9-10页 |
第二章 听觉显示基础 | 第10-16页 |
·听觉的特点 | 第10-11页 |
·语音与非语音 | 第11页 |
·声音的维度 | 第11-13页 |
·基本概念 | 第11-12页 |
·声音的维度 | 第12页 |
·声音各维度的相互影响 | 第12-13页 |
·听觉的多种效应 | 第13-14页 |
·用声音信号表达信息的原则 | 第14-15页 |
·听觉感知的研究方向 | 第15-16页 |
第三章 听觉显示技术及工具 | 第16-28页 |
·听觉显示模型 | 第16-18页 |
·可听化系统 | 第16页 |
·听觉显示研究 | 第16-17页 |
·听觉显示空间 | 第17-18页 |
·数据-声音映射模型 | 第18-22页 |
·映射的意义 | 第18-19页 |
·数据-声音映射模型 | 第19-22页 |
·按照映射方式分类 | 第19页 |
·按照数据属性分类 | 第19-22页 |
·听觉显示工具研究 | 第22-23页 |
·听觉显示工具研究现状 | 第22页 |
·听觉显示工具设计要求 | 第22-23页 |
·主流的听觉显示工具 | 第23-26页 |
·听觉显示工具比较 | 第26-27页 |
·听觉显示工具发展趋势 | 第27-28页 |
第四章 听觉显示开发平台的设计与实现 | 第28-44页 |
·设计ADK的目的 | 第28页 |
·ADK的总体结构 | 第28-31页 |
·主控模块 | 第31-32页 |
·主控模块的组成 | 第31页 |
·读写接口 | 第31页 |
·脚本/命令行接口 | 第31页 |
·GUI接口 | 第31-32页 |
·数据处理模块 | 第32-35页 |
·数据处理模块定义的类型 | 第33-34页 |
·数据处理模块中定义的接口 | 第34-35页 |
·映射模块 | 第35-37页 |
·映射模块中定义的类型 | 第35-36页 |
·映射模块中定义的接口 | 第36-37页 |
·声音合成模块 | 第37-39页 |
·声音合成模块定义的结构 | 第37页 |
·多路立体声实时合成的实现 | 第37-39页 |
·脚本解释器 | 第39-43页 |
·脚本规范 | 第39-40页 |
·脚本保留的关键字 | 第40-41页 |
·脚本解释器流程图 | 第41-42页 |
·脚本示例 | 第42-43页 |
·ADK功能扩展 | 第43-44页 |
第五章 ADK应用实例 | 第44-55页 |
·可听化汽车仪表 | 第44-47页 |
·心电图可听化分析 | 第47-51页 |
·卫星遥感数据的可听化 | 第51-55页 |
第六章 结束语 | 第55-56页 |
参考文献 | 第56-60页 |
相关链接 | 第60-61页 |
附录一 主控模块定义的接口 | 第61-62页 |
附录二 数据处理模块定义的接口 | 第62-63页 |
附录三 映射模块定义的接口 | 第63-64页 |
附录四 声音合成模块定义的接口 | 第64-68页 |
致谢 | 第68页 |