基于视频图像的火灾检测与识别方法研究
摘要 | 第5-7页 |
Abstract | 第7-8页 |
第一章 绪论 | 第12-19页 |
1.1 概述 | 第12-14页 |
1.2 国内外研究现状分析 | 第14-16页 |
1.2.1 视频图像中的火灾检测 | 第14-15页 |
1.2.2 视觉注意力机制 | 第15-16页 |
1.3 本文的研究方法和技术路线 | 第16-17页 |
1.4 本文的主要内容和章节安排 | 第17-19页 |
第二章 火灾检测与识别的图像处理技术基础 | 第19-37页 |
2.1 彩色图像处理 | 第19-25页 |
2.1.1 彩色图像模型 | 第19-24页 |
2.1.2 彩色图像的灰度转换 | 第24-25页 |
2.2 图像滤波与复原 | 第25-28页 |
2.2.1 线性滤波器 | 第25-27页 |
2.2.2 非线性滤波器 | 第27-28页 |
2.3 图像形态学 | 第28-32页 |
2.3.1 膨胀与腐蚀 | 第28-30页 |
2.3.2 开运算与闭运算 | 第30-31页 |
2.3.3 边界提取 | 第31页 |
2.3.4 区域填充 | 第31-32页 |
2.4 图像分割 | 第32-36页 |
2.4.1 边缘检测 | 第32-35页 |
2.4.2 阈值分割 | 第35-36页 |
2.5 本章小结 | 第36-37页 |
第三章 基于改进的注意机制的火灾图像预处理 | 第37-63页 |
3.1 视觉注意机制的概念 | 第37-38页 |
3.2 人类视觉系统与注意力机制 | 第38-40页 |
3.2.1 人眼的生理构造 | 第38-39页 |
3.2.2 人类的视觉系统 | 第39-40页 |
3.3 视觉注意力模型 | 第40-44页 |
3.3.1 数据驱动模型与任务驱动模型 | 第40-42页 |
3.3.2 itti 模型 | 第42-43页 |
3.3.3 Stentiford 模型 | 第43-44页 |
3.4 基于注意力机制的火灾图像预处理 | 第44-62页 |
3.4.1 高斯金字塔 | 第45-46页 |
3.4.2 图像特征提取 | 第46页 |
3.4.3 亮度特征提取 | 第46-49页 |
3.4.4 颜色特征提取 | 第49-52页 |
3.4.5 朝向特征提取 | 第52-54页 |
3.4.6 关注图的生成 | 第54-58页 |
3.4.7 显著图的生成 | 第58页 |
3.4.8 感兴趣区域提取 | 第58-59页 |
3.4.9 时间因素对显著性的影响及改进 | 第59-62页 |
3.5 本章小结 | 第62-63页 |
第四章 火焰与烟雾识别 | 第63-76页 |
4.1 火焰疑似区域的提取 | 第64-66页 |
4.1.1 基于 RGB 空间的火焰提取 | 第64-65页 |
4.1.2 基于 HSI 空间的火焰提取 | 第65-66页 |
4.2 火焰特征的选择 | 第66-69页 |
4.2.1 提取颜色直方图 | 第67-68页 |
4.2.2 提取颜色矩 | 第68-69页 |
4.3 烟雾疑似区域的提取 | 第69-70页 |
4.3.1 基于 RGB 空间的烟雾提取 | 第69-70页 |
4.3.2 基于烟雾形态信息的筛选 | 第70页 |
4.4 烟雾特征的选择 | 第70-72页 |
4.4.1 灰度共生矩阵 | 第71页 |
4.4.2 提取烟雾纹理特征 | 第71-72页 |
4.5 支持向量机 SVM | 第72-75页 |
4.5.1 基本原理 | 第73-74页 |
4.5.2 核函数 | 第74-75页 |
4.6 本章小结 | 第75-76页 |
第五章 实验与结果分析 | 第76-86页 |
5.1 实验环境与数据介绍 | 第76页 |
5.2 区域提取运行过程 | 第76-80页 |
5.3 识别结果分析与对别 | 第80-84页 |
5.4 本章小结 | 第84-86页 |
第六章 总结与展望 | 第86-87页 |
6.1 本文总结 | 第86页 |
6.2 展望 | 第86-87页 |
参考文献 | 第87-91页 |
攻读硕士学位期间取得的研究成果 | 第91-92页 |
致谢 | 第92-93页 |
附件 | 第93页 |