摘要 | 第5-6页 |
Abstract | 第6-7页 |
第一章 绪论 | 第14-24页 |
1.1 表观模型(Appearance Model) | 第15-18页 |
1.1.1 手工表观模型(Handcrafted Appearance Model) | 第15-17页 |
1.1.2 自动表观模型(Automated Appearance Model) | 第17-18页 |
1.2 跟踪模型(Tracking Model) | 第18-20页 |
1.2.1 生成跟踪模型(Generative Model) | 第19页 |
1.2.2 判别跟踪模型(Discriminative Model) | 第19-20页 |
1.3 生物启发模型(Biologically Inspired Model) | 第20-22页 |
1.3.1 灵长动物视觉皮层 | 第20-21页 |
1.3.2 视觉通路的功能 | 第21-22页 |
1.4 论文组织结构 | 第22-24页 |
第二章 基于生物启发的跟踪器 | 第24-37页 |
2.1 生物启发表观模型(BIAM) | 第24-29页 |
2.1.1 S1单元:初级简单细胞 | 第25-28页 |
2.1.2 C1单元:皮层复杂细胞 | 第28-29页 |
2.2 生物启发跟踪模型(BITM) | 第29-32页 |
2.2.1 S2单元:视觉调谐学习 | 第30-31页 |
2.2.2 C2单元:独立任务学习 | 第31-32页 |
2.3 实时生物启发跟踪器(BIT) | 第32-35页 |
2.3.1 快速Gabor近似(FGA) | 第32-33页 |
2.3.2 快速傅里叶变换(FFT) | 第33-35页 |
2.3.3 实时BIT算法总结 | 第35页 |
2.4 本章小结 | 第35-37页 |
第三章 基于深度学习与尺度自适应的BIT改进 | 第37-49页 |
3.1 基于深度学习的改进 | 第37-41页 |
3.1.1 生物启发特征与卷积神经网络 | 第37-38页 |
3.1.2 深度特征提取 | 第38-39页 |
3.1.3 基于深度学习的BIT | 第39-41页 |
3.2 基于尺度自适应的改进 | 第41-48页 |
3.2.1 独立尺度估计 | 第42-44页 |
3.2.2 快速尺度估计 | 第44-46页 |
3.2.3 尺度自适应的BIT | 第46-48页 |
3.3 本章小结 | 第48-49页 |
第四章 实验分析对比 | 第49-69页 |
4.1 对比实验数据库 | 第49-53页 |
4.1.1 TB50 | 第49-52页 |
4.1.2 ALOV300++ | 第52-53页 |
4.2 生物启发跟踪器对比实验 | 第53-62页 |
4.2.1 整体跟踪结果分析 | 第53-55页 |
4.2.2 详细跟踪结果分析 | 第55-61页 |
4.2.3 BIT模型分析 | 第61-62页 |
4.2.4 实时性分析 | 第62页 |
4.3 基于深度学习的BIT | 第62-66页 |
4.3.1 TB50对比实验 | 第63-64页 |
4.3.2 深度特征分析 | 第64-66页 |
4.4 自适应尺度的BIT | 第66-68页 |
4.4.1 TB50对比实验 | 第66-67页 |
4.4.2 ALOV300++ 对比实验 | 第67-68页 |
4.5 本章小结 | 第68-69页 |
第五章 总结与展望 | 第69-72页 |
5.1 本文总结 | 第69-70页 |
5.2 未来展望 | 第70-72页 |
参考文献 | 第72-80页 |
攻读硕士学位期间取得的研究成果 | 第80-81页 |
致谢 | 第81-82页 |
附件 | 第82页 |