提要 | 第5-6页 |
摘要 | 第6-8页 |
Abstract | 第8-9页 |
第1章 绪论 | 第12-30页 |
1.1 研究背景与意义 | 第12-14页 |
1.2 主要技术的研究发展现状 | 第14-28页 |
1.2.1 视觉显著性检测方法分类 | 第14-16页 |
1.2.2 视觉显著性检测算法比较分析 | 第16-26页 |
1.2.3 视觉显著性检测技术的应用 | 第26-28页 |
1.3 论文的研究内容与组织框架 | 第28-30页 |
1.3.1 论文的研究内容 | 第28-29页 |
1.3.2 论文的组织框架 | 第29-30页 |
第2章 基于场景感知的混合处理模型 | 第30-50页 |
2.1 引言 | 第30页 |
2.2 视觉信息加工模式研究 | 第30-32页 |
2.2.1 通用视觉信息加工模式 | 第30-31页 |
2.2.2 主动视觉加工模式 | 第31-32页 |
2.2.3 场景感知混合加工模式 | 第32页 |
2.3 场景感知特征理论研究 | 第32-34页 |
2.4 基于混合加工模型的显著目标识别 | 第34-48页 |
2.4.1 视觉特征的提取 | 第34-42页 |
2.4.2 基于混合加工模型的显著目标识别 | 第42-48页 |
2.5 小结 | 第48-50页 |
第3章 视觉认知的心理学研究与BART神经网络模拟 | 第50-74页 |
3.1 引言 | 第50页 |
3.2 快速场景认知的研究 | 第50-54页 |
3.2.1 空间尺度在快速场景认知中的作用 | 第52-53页 |
3.2.2 颜色特征在快速场景认知中的作用 | 第53-54页 |
3.3 视觉显著特征对目标识别影响的比较研究 | 第54-60页 |
3.3.1 心理学实验研究 | 第55-57页 |
3.3.2 实验设计与分析 | 第57-60页 |
3.4 basic ART 神经网络模拟 | 第60-72页 |
3.4.1 自适应共振理论 | 第61-62页 |
3.4.2 偏置自适应共振理论神经网络模型(biased ART,bART) | 第62-65页 |
3.4.3 底层视觉特征的提取 | 第65-69页 |
3.4.4 实验研究 | 第69-72页 |
3.5 本章小结 | 第72-74页 |
第4章 基于视觉显著性的火焰目标检测 | 第74-88页 |
4.1 引言 | 第74-76页 |
4.2 视觉显著区域 | 第76-81页 |
4.2.1 傅立叶变换 | 第76-79页 |
4.2.2 视觉差异显著区域的生成 | 第79-81页 |
4.3 显著目标对象的提取 | 第81-83页 |
4.4 基于显著特征点的火焰检测 | 第83-87页 |
4.5 本章小结 | 第87-88页 |
第5章 基于视觉显著性的复杂场景烟雾检测 | 第88-102页 |
5.1 引言 | 第88-89页 |
5.2 显著运动区域提取 | 第89-92页 |
5.2.1 多步长帧间差累积算法 | 第89-91页 |
5.2.2 显著运动区域提取 | 第91-92页 |
5.3 显著运动对象提取 | 第92-96页 |
5.3.1 图像的稀疏表达与字典学习 | 第92-94页 |
5.3.2 稀疏矩阵求解 | 第94-95页 |
5.3.3 显著运动对象像素点提取 | 第95-96页 |
5.4 烟雾目标检测 | 第96-98页 |
5.4.1 运动增长区域的提取 | 第96-97页 |
5.4.2 烟雾的颜色显著区域检测 | 第97-98页 |
5.5 采用多种方法的显著运动目标检测 | 第98-101页 |
5.6 本章小结 | 第101-102页 |
第6章 总结与展望 | 第102-104页 |
6.1 总结 | 第102-103页 |
6.2 展望 | 第103-104页 |
参考文献 | 第104-116页 |
作者简介及在学期间所取得的科研成果 | 第116-118页 |
致谢 | 第118页 |