本书围绕视频成像的目标识别、目标检测与目标跟踪等视频监控核心技术,系统阐述了基于深度学习的视频图像目标检测与识别方法,包括基于深度学习的视频图像目标检测与目标跟踪、基于锚框的目标检测和无锚框的目标检测模型与算法,以及两阶段目标检测与单阶段目标检测的深度学习模型与算法等,为新一代智能监控系统建设奠定了技术基础。本书的特色是在系统阐述视频监控理论与方法的基础上,对相关主流方法进行比较分析,为技术应用提供借鉴。
更多科学出版社服务,请扫码获取。
目录
前言
第1章 视频监控技术与系统概论 1
1.1 监控与视频监控 1
1.2 视频监控技术与系统 3
1.3 视频智能监控常用模型简介 6
1.4 视频监控研究与发展 11
1.4.1 视频监控技术发展的起源与阶段划分 11
1.4.2 视频监控技术的国内外研究动态 13
1.4.3 视频监控系统的国内外发展动态 14
1.4.4 当前存在的主要瓶颈及破局路径 18
1.5 本章小结 19
参考文献 20
第2章 视频监控数据采集与传输 23
2.1 视频图像采样设备与数据质量 23
2.1.1 视频摄像设备的种类 23
2.1.2 视频成像过程及影响因素 25
2.1.3 视频成像质量及性能评价 25
2.2 视频图像数据的采集与输出 27
2.2.1 视频图像数据的采集与存储 27
2.2.2 视频图像数据的异地传输 28
2.3 视频图像数据传输链路 32
2.4 视频图像数据压缩与编码 33
2.4.1 图像数据压缩的基本原理 34
2.4.2 图像数据压缩的类型划分 34
2.5 视频图像数据编码与解码 36
2.5.1 视频图像数据编码方法 36
2.5.2 主流视频图像编码方法及特点比较 37
2.5.3 视频图像数据解码方法 39
2.6 视频图像数据传输协议与技术 43
2.7 本章小结 44
参考文献 45
第3章 视频图像数据的增强与重建 47
3.1 视频图像数据基本类型 47
3.1.1 数字图像与模拟图像 47
3.1.2 数字图像的数据形态 48
3.2 视频图像数据质量对监控的影响 49
3.2.1 视频图像清晰度的影响分析 49
3.2.2 视频图像流畅性的影响分析 50
3.2.3 视频图像噪声与干扰的影响分析 50
3.3 视频图像数据的质量增强 51
3.3.1 图像灰度直方图均衡化方法评析 51
3.3.2 图像对比度拉伸与变换方法评析 52
3.3.3 图像滤波平滑与降噪方法评析 52
3.3.4 视频图像增强方法评析 58
3.4 基于Retinex的图像增强算法 62
3.4.1 SSR算法 62
3.4.2 MSR算法 63
3.4.3 MSRCR算法 65
3.5 基于人工智能与深度学习的图像增强方法 65
3.5.1 人工智能驱动图像增强的实质与核心技术 65
3.5.2 典型的智能化图像增强方法 66
3.5.3 典型的智能化图像增强方法比较 69
3.6 视频图像数据的超分辨率重建 70
3.6.1 超分辨率重建的基本过程 70
3.6.2 超分辨率重建的典型方法 74
3.6.3 超分辨率重建的基本步骤 74
3.7 重建与去噪结合的图像清晰化方法 75
3.8 本章小结 76
参考文献 77
第4章 视频图像特征提取与分类 79
4.1 图像分类理论与技术 79
4.1.1 理论框架与技术演进 79
4.1.2 智能图像分类的基本处理流程 80
4.2 图像特征提取与特征选择 81
4.2.1 视频图像特征分类 82
4.2.2 典型特征提取方法与技术简介 84
4.2.3 典型特征提取与特征选择方法比较 90
4.3 图像分类的典型网络模型 93
4.3.1 CNN的模型结构 94
4.3.2 LeNet的模型结构 97
4.3.3 ResNet的模型结构 97
4.3.4 AlexNet的模型结构 98
4.3.5 GoogleNet的模型结构 99
4.4 典型图像分类模型的比较 101
4.4.1 模型的功能与特点比较 102
4.4.2 模型的计算效率与硬件适配性比较 103
4.5 本章小结 104
参考文献 105
第5章 视频图像目标智能检测与监测 107
5.1 图像目标静态检测方法与技术 107
5.1.1 图像目标检测基本内涵 107
5.1.2 图像目标检测发展历程 108
5.1.3 图像目标检测方法分类与基本流程 112
5.2 视频图像目标动态检测方法与技术 115
5.2.1 视频图像目标检测的基本内涵 115
5.2.2 经典的视频图像目标动态检测方法 116
5.2.3 视频图像目标检测的方法分类 121
5.2.4 视频图像目标检测的挑战及对策 123
5.3 视频图像目标检测的传统方法 125
5.3.1 传统视频图像目标检测简介 125
5.3.2 传统视频图像目标检测方法的发展历程与分类 129
5.4 基于特征工程的目标检测方法 131
5.4.1 基于Viola-Jones算法的目标检测 131
5.4.2 基于HOG算法的目标检测 132
5.4.3 基于DPM算法的目标检测 133
5.4.4 基于特征工程的传统方法比较 135
5.5 基于深度学习的目标检测方法 136
5.5.1 基于深度学习的目标检测概论 137
5.5.2 实现视频图像目标检测的关键技术 138
5.5.3 基于锚框和无锚框的目标检测方法 142
5.5.4 两阶段目标检测与单阶段目标检测 145
5.5.5 两阶段/单阶段与有锚框/无锚框比较 148
5.6 本章小结 149
参考文献 150
第6章 视频图像目标智能分割与识别 153
6.1 目标分割与识别概述 153
6.1.1 目标分割的内涵 153
6.1.2 目标识别的内涵 154
6.1.3 目标分割与目标识别的差异性及相关性 154
6.2 视频图像目标分割方法 155
6.2.1 基于阈值的分割方法 156
6.2.2 基于区域的分割方法 157
6.2.3 基于边缘检测的分割方法 158
6.2.4 基于深度学习的分割方法 162
6.2.5 四类分割方法的比较 165
6.3 视频图像目标识别方法 166
6.3.1 视频图像目标识别的基本逻辑 166
6.3.2 视频图像目标识别的发展历程和智能化方法 167
6.3.3 不同类视频图像目标识别方法比较 168
6.4 视频图像目标分割与识别方法比较 169
6.5 本章小结 170
参考文献 170
第7章 视频图像目标智能跟踪与定位 174
7.1 目标跟踪与定位概述 174
7.1.1 视频图像目标跟踪的内涵 174
7.1.2 视频图像目标定位的内涵 176
7.1.3 视频图像目标跟踪与定位的关联性 177
7.2 目标跟踪理论与方法 178
7.2.1 动目标跟踪方法概论 178
7.2.2 基于特征点匹配的方法 179
7.2.3 基于Kalman滤波的方法 182
7.2.4 基于运动目标颜色特征的跟踪算法 184
7.2.5 基于深度学习的智能化方法 185
7.2.6 典型目标跟踪方法比较 187
7.3 视频图像的目标定位 188
7.3.1 基于传统图像处理的目标定位方法 188
7.3.2 基于深度学习的目标定位方法 189
7.4 典型定位与跟踪方法比较 192
7.4.1 技术与应用比较 192
7.4.2 定位与跟踪比较 193
7.5 本章小结 194
参考文献 195
第8章 视频图像智能算法域泛化与迁移 198
8.1 深度学习智能算法的域特定性 198
8.1.1 域特定性的分析与对策 198
8.1.2 域迁移与应对方法 199
8.2 视频图像的域不变特征提取 200
8.2.1 先验分布域不变成分提取 201
8.2.2 后验分布域不变成分提取 203
8.2.3 基于对抗训练的域不变成分学习 204
8.3 视频图像智能算法的域泛化训练 206
8.3.1 基于集成学习的泛化训练技术 206
8.3.2 基于元学习的泛化训练技术 208
8.4 视频图像智能算法的域迁移方法 211
8.4.1 基于微调的域迁移方法 211
8.4.2 基于持续学习的增量域迁移训练 214
8.5 本章小结 217
参考文献 218
第9章 视频智能监控系统设计与实现 220
9.1 视频图像目标监控概论 220
9.1.1 视频图像目标监控内涵解析 220
9.1.2 视频图像目标监控若干领域关联性解析 221
9.1.3 视频图像目标智能监控的技术建设 225
9.1.4 目标监控相关技术协同应用范式 226
9.2 视频智能监控系统设计方法 227
9.2.1 总体规划与架构设计 228
9.2.2 监控系统核心构建配置 229
9.3 视频图像数据采集与传输硬件构成 231
9.3.1 前端摄像机 231
9.3.2 传输线缆 233
9.3.3 传输协议 237
9.4 视频监控系统研发环境与实现方法 238
9.4.1 基于OpenCV的开发环境 238
9.4.2 视频监控系统设计与实现方法 239
9.5 视频监控系统综合评价方法 241
9.6 视频智能监控技术进展与展望 245
9.7 本章小结 246
参考文献 247
第10章 智能视频监控系统开发示例 249
10.1 视频智能监控软件系统开发方法 249
10.2 示例1:基于YOLOv5+CA的火焰烟雾监测 250
10.2.1 问题简述 250
10.2.2 技术方案设计 251
10.2.3 模型选定与优化改进 252
10.2.4 厂区火焰烟雾目标检测环境搭建 255
10.2.5 厂区火焰烟雾数据集制作 256
10.2.6 模型训练与数据增强 257
10.2.7 基于Pyside6的检测系统软件设计与实现 259
10.3 示例2:基于RetinaNet的交通基础设施损伤检测 262
10.3.1 问题简述 262
10.3.2 技术方案设计 263
10.3.3 深度学习模型及关键技术优化 265
10.3.4 桥梁数据采集与整理 269
10.3.5 桥梁裂纹检测环境与算法参数配置 270
10.3.6 桥梁裂缝骨架提取与图像去噪 271
10.3.7 桥梁裂缝几何参数估算 275
10.3.8 裂缝检测软件系统的设计与实现 276
10.4 示例3:基于OpenCV的运动体检测与跟踪 282
10.4.1 问题简述 282
10.4.2 技术方案设计 283
10.4.3 核心算法CamShift的优化及实现 284
10.4.4 Tiny-YOLO算法的改进 288
10.4.5 基于OpenCV和YOLO的智能检测跟踪系统设计与实现 293
10.5 本章小结 300
参考文献 300
附录1 视频图像目标检测模块示例代码 302
附录2 桥梁裂纹检测主干模块示例代码 305
附录3 运动体检测跟踪模块示例代码 308
附录4 运动体快照模块示例代码 316