1.历史:
(1)1986 Hinton等人提出 反向传播(BP)算法
(2)1998 LeCun 利用BP训练LeNet网络,标志着CNN问世(硬件跟不上)
(3)2006 Hinton 首次提及deeping learning概念
(4)2012 AlexNet 效果从传统70%提升至80%
2.运用
(1)图像分类 (2)图像检索 (3)目标检测 (4)目标分割
3.组成部分
(1)全连接层——神经元
神经元示意图
全连接层——BP算法
BP算法:信号的前向传播和误差传播。即计算误差输出时按从输入到输出的方向进行,而调整权值和阈值则从输出到输入的方向进行
(2)卷积层
卷积计算过程
目的:进行图像特征提取
特性:1,拥有局部感知特性 2,权值共享
权值共享:对于一张1280*720的图片,BP网络假设hidden layer 1,神经元个数为1000
则需要1280*720*1000 = 92160 000个参数。对于卷积神经网络,假设layer1采用1000个5*5的卷积核,所需要的参数个数为5*5*1000 = 25000
1.卷积核的channel与输入特征层的channel相同
2.输出的特征矩阵channel与卷积核个数相同
在卷积操作过程中,矩阵经卷积操作后的尺寸由以下几个因数决定:
- 输入图片大小W*W
- Filter大小F*F
- 步长S
- Pading的像素数P
经卷积后的矩阵尺寸大小计算公式为N=(W-F+2P)/S+1
(3)池化层
池化层计算过程
目的:对特征图进行稀疏处理,减少数据运算量
类别:MaxPooling、Averagepooling下采样
特点:没有训练参数、只改变特征矩阵的w和h,不改变channel,一般poolingsize和stride相同