虚拟手术系统中缝合等关键模块的实现
摘要 | 第5-7页 |
ABSTRACT | 第7-8页 |
第一章 绪论 | 第14-19页 |
1.1 课题研究背景及意义 | 第14-16页 |
1.2 主要贡献 | 第16-17页 |
1.2.1 缝合模拟及集成 | 第16-17页 |
1.2.2 深度训练 | 第17页 |
1.3 各章节安排 | 第17-18页 |
1.4 本章小结 | 第18-19页 |
第二章 相关工作 | 第19-30页 |
2.1 虚拟手术系统概述 | 第19-23页 |
2.1.1 硬件组成 | 第20-21页 |
2.1.2 软件功能模块 | 第21-23页 |
2.2 缝合缝模型 | 第23-24页 |
2.2.1 缝合线模型 | 第23页 |
2.2.2 系统集成 | 第23-24页 |
2.3 碰撞检测 | 第24-28页 |
2.4 交互技术 | 第28-29页 |
2.5 声音渲染技术 | 第29页 |
2.6 本章小结 | 第29-30页 |
第三章 缝合模拟及集成 | 第30-46页 |
3.1 缝合过程模拟 | 第30-35页 |
3.1.1 线模型 | 第30-31页 |
3.1.2 限制条件与力学模型 | 第31-35页 |
3.2 碰撞检测 | 第35-39页 |
3.2.1 树的构造 | 第35-36页 |
3.2.2 检测原理 | 第36-38页 |
3.2.3 算法优化 | 第38-39页 |
3.3 缝合模块集成 | 第39-45页 |
3.3.1 集成难点 | 第39-40页 |
3.3.2 解决方案 | 第40-45页 |
3.5 本章小结 | 第45-46页 |
第四章 深度训练 | 第46-53页 |
4.1 人机交互控制 | 第46-47页 |
4.1.1 力反馈设备介绍 | 第46-47页 |
4.1.2 工具模型 | 第47页 |
4.2 训练模块设计 | 第47-49页 |
4.2.1 安全区 | 第47-48页 |
4.2.2 静态物体定位训练 | 第48-49页 |
4.2.3 动态物体定位训练 | 第49页 |
4.2.4 定位模块 | 第49页 |
4.3 声音模块 | 第49-52页 |
4.3.1 声源采样 | 第50页 |
4.3.2 声音信号接口 | 第50-51页 |
4.3.4 声音播放 | 第51-52页 |
4.5 本章小结 | 第52-53页 |
第五章 实验及分析 | 第53-69页 |
5.1 开发环境 | 第53页 |
5.2 缝合线相关实验 | 第53-64页 |
5.2.1 线模型实验 | 第53-54页 |
5.2.2 碰撞检测实验 | 第54-59页 |
5.2.3 打结和刺穿实验 | 第59-62页 |
5.2.4 集成测试 | 第62-64页 |
5.3 深度训练实验 | 第64-67页 |
5.3.1 安全区实验 | 第64-65页 |
5.3.2 静态物体定位实验 | 第65-66页 |
5.3.3 动态物体定位实验 | 第66页 |
5.3.4 声音渲染实验 | 第66-67页 |
5.4 实验效果总结 | 第67-68页 |
5.5 本章小结 | 第68-69页 |
第六章 结论与展望 | 第69-71页 |
6.1 本文工作总结 | 第69页 |
6.2 未来工作展望 | 第69-71页 |
参考文献 | 第71-75页 |
致谢 | 第75-76页 |
攻读学位期间发表的学术论文目录 | 第76-78页 |