虚拟手术系统中缝合等关键模块的实现
| 摘要 | 第5-7页 |
| ABSTRACT | 第7-8页 |
| 第一章 绪论 | 第14-19页 |
| 1.1 课题研究背景及意义 | 第14-16页 |
| 1.2 主要贡献 | 第16-17页 |
| 1.2.1 缝合模拟及集成 | 第16-17页 |
| 1.2.2 深度训练 | 第17页 |
| 1.3 各章节安排 | 第17-18页 |
| 1.4 本章小结 | 第18-19页 |
| 第二章 相关工作 | 第19-30页 |
| 2.1 虚拟手术系统概述 | 第19-23页 |
| 2.1.1 硬件组成 | 第20-21页 |
| 2.1.2 软件功能模块 | 第21-23页 |
| 2.2 缝合缝模型 | 第23-24页 |
| 2.2.1 缝合线模型 | 第23页 |
| 2.2.2 系统集成 | 第23-24页 |
| 2.3 碰撞检测 | 第24-28页 |
| 2.4 交互技术 | 第28-29页 |
| 2.5 声音渲染技术 | 第29页 |
| 2.6 本章小结 | 第29-30页 |
| 第三章 缝合模拟及集成 | 第30-46页 |
| 3.1 缝合过程模拟 | 第30-35页 |
| 3.1.1 线模型 | 第30-31页 |
| 3.1.2 限制条件与力学模型 | 第31-35页 |
| 3.2 碰撞检测 | 第35-39页 |
| 3.2.1 树的构造 | 第35-36页 |
| 3.2.2 检测原理 | 第36-38页 |
| 3.2.3 算法优化 | 第38-39页 |
| 3.3 缝合模块集成 | 第39-45页 |
| 3.3.1 集成难点 | 第39-40页 |
| 3.3.2 解决方案 | 第40-45页 |
| 3.5 本章小结 | 第45-46页 |
| 第四章 深度训练 | 第46-53页 |
| 4.1 人机交互控制 | 第46-47页 |
| 4.1.1 力反馈设备介绍 | 第46-47页 |
| 4.1.2 工具模型 | 第47页 |
| 4.2 训练模块设计 | 第47-49页 |
| 4.2.1 安全区 | 第47-48页 |
| 4.2.2 静态物体定位训练 | 第48-49页 |
| 4.2.3 动态物体定位训练 | 第49页 |
| 4.2.4 定位模块 | 第49页 |
| 4.3 声音模块 | 第49-52页 |
| 4.3.1 声源采样 | 第50页 |
| 4.3.2 声音信号接口 | 第50-51页 |
| 4.3.4 声音播放 | 第51-52页 |
| 4.5 本章小结 | 第52-53页 |
| 第五章 实验及分析 | 第53-69页 |
| 5.1 开发环境 | 第53页 |
| 5.2 缝合线相关实验 | 第53-64页 |
| 5.2.1 线模型实验 | 第53-54页 |
| 5.2.2 碰撞检测实验 | 第54-59页 |
| 5.2.3 打结和刺穿实验 | 第59-62页 |
| 5.2.4 集成测试 | 第62-64页 |
| 5.3 深度训练实验 | 第64-67页 |
| 5.3.1 安全区实验 | 第64-65页 |
| 5.3.2 静态物体定位实验 | 第65-66页 |
| 5.3.3 动态物体定位实验 | 第66页 |
| 5.3.4 声音渲染实验 | 第66-67页 |
| 5.4 实验效果总结 | 第67-68页 |
| 5.5 本章小结 | 第68-69页 |
| 第六章 结论与展望 | 第69-71页 |
| 6.1 本文工作总结 | 第69页 |
| 6.2 未来工作展望 | 第69-71页 |
| 参考文献 | 第71-75页 |
| 致谢 | 第75-76页 |
| 攻读学位期间发表的学术论文目录 | 第76-78页 |