目录

第五章计算机视觉1.计算机视觉基础-3卷积神经网络核心层与架构分析卷积层池化层归一化层激活层

【第五章:计算机视觉】1.计算机视觉基础-(3)卷积神经网络核心层与架构分析:卷积层、池化层、归一化层、激活层

第五章:计算机视觉(Computer Vision)

第一部分:计算机视觉基础

第三节:卷积神经网络核心层与架构分析:卷积层、池化层、归一化层、激活层


一、引言

卷积神经网络(Convolutional Neural Network, CNN)是计算机视觉领域的里程碑性突破。其核心思想是利用卷积操作提取图像的局部特征,并逐层组合为高层语义特征。CNN 已成为图像分类、目标检测、语义分割等任务的主流架构。

CNN 的强大之处在于 层次化特征学习

  • 低层:学习边缘、角点等基础特征。
  • 中层:学习纹理、局部形状。
  • 高层:学习复杂物体的语义信息。

要理解 CNN,需要深入认识它的核心层:卷积层、池化层、归一化层、激活层。


二、卷积层(Convolutional Layer)

1. 定义

卷积层是 CNN 的核心。它通过滑动 卷积核(Filter) 在输入特征图上执行卷积运算,提取局部特征。

数学表达式:

https://latex.csdn.net/eq?z_%7Bi%2Cj%7D%20%3D%20%5Csum_%7Bm%2Cn%7D%20x_%7Bi+m%2Cj+n%7D%20%5Ccdot%20w_%7Bm%2Cn%7D%20+%20b

  • x:输入像素或特征图
  • w:卷积核权重
  • b:偏置
  • https://latex.csdn.net/eq?z_%7Bi%2Cj%7D
2. 特点
  • 局部感受野:卷积核只关注局部区域,逐步组合成全局特征。
  • 参数共享:同一个卷积核在整张图上滑动,大大减少参数量。
  • 稀疏连接:每个输出值只依赖输入的局部区域。
3. 作用

提取图像的边缘、纹理、形状等特征。


三、池化层(Pooling Layer)

1. 定义

池化层用于下采样,减少特征图尺寸,同时保留关键信息。

常见方法:

  • 最大池化(Max Pooling):取窗口内的最大值。
  • 平均池化(Average Pooling):取窗口内的平均值。
2. 数学表示

https://latex.csdn.net/eq?p_%7Bi%2Cj%7D%20%3D%20%5Cmax%20%28z_%7Bi%3Ai+k%2C%20j%3Aj+k%7D%29

其中 kk 表示池化窗口大小。

3. 作用
  • 降低特征图维度,减少计算量。
  • 提高模型对平移、缩放等变化的鲁棒性。

四、归一化层(Normalization Layer)

归一化操作能加速训练、提高模型稳定性。

1. 常见方法
  • 批量归一化(Batch Normalization, BN)
    对每一批数据在通道维度上做归一化:

    https://latex.csdn.net/eq?%5Chat%7Bx%7D%20%3D%20%5Cfrac%7Bx%20-%20%5Cmu%7D%7B%5Csigma%7D

  • 层归一化(Layer Normalization, LN):对每个样本的所有特征归一化,常用于 NLP。

  • 组归一化(Group Normalization, GN):在通道维度上分组归一化,适合小批量训练。

2. 作用
  • 缓解梯度消失与爆炸问题。
  • 提高训练速度与收敛效果。

五、激活层(Activation Layer)

激活函数引入非线性,使神经网络能学习复杂模式。

常见激活函数:
  1. Sigmoid

https://latex.csdn.net/eq?%5Csigma%28x%29%20%3D%20%5Cfrac%7B1%7D%7B1+e%5E%7B-x%7D%7D

缺点:梯度消失。

  1. ReLU (Rectified Linear Unit)

https://latex.csdn.net/eq?f%28x%29%20%3D%20%5Cmax%280%2C%20x%29

优点:计算简单,收敛快。

  1. Leaky ReLU

https://latex.csdn.net/eq?f%28x%29%20%3D%20%5Cmax%28%5Calpha%20x%2C%20x%29

缓解 ReLU 死亡问题。

  1. Softmax
    用于分类任务输出概率分布。

六、典型 CNN 架构

一个典型 CNN 网络结构如下:


输入图像 → 卷积层 + 激活层 → 卷积层 + 激活层 → 池化层 → 
卷积层 + 激活层 → 池化层 → 全连接层 → Softmax 输出

经典模型实例:

  • LeNet-5 (1998):手写数字识别
  • AlexNet (2012):ImageNet 竞赛冠军,掀起深度学习浪潮
  • VGGNet (2014):使用更深的卷积层堆叠
  • ResNet (2015):引入残差结构,解决梯度消失问题

七、总结

  • 卷积层:提取局部特征,参数共享。
  • 池化层:降低维度,增强鲁棒性。
  • 归一化层:稳定训练,加速收敛。
  • 激活层:引入非线性,提升表达能力。

这四类核心层共同构成了 CNN 的基本单元,使其能够在图像理解任务中表现出色。