卷积神经网络

卷积神经网络(Convolutional Neural Networks, CNN)是一类包含卷积计算且具有深度结构的前馈神经网络(Feedforward Neural Networks),是深度学习(deep learning)的代表算法之一 。由于卷积神经网络能够进行平移不变分类(shift-invariant classification),因此也被称为“平移不变人工神经网络(Shift-Invariant Artificial Neural Networks, SIANN)” 。

    首页 > 人工智能(Artificial Intelligence) > 卷积神经网络
  • 卷积神经网络(CNN)简介

    卷积神经网络(Convolutional Neural Networks, CNN)是一类包含卷积计算且具有深度结构的前馈神经网络(Feedforward Neural Networks),是深度学习(deep learning)的代表算法之一 。由于卷积神经网络能够进行平移不变分类(shift-invariant classification),因此也被称为“平移不变人工神经网络(Shift-Invariant Artificial Neural Networks, SIANN)” 。

    2019-05-11 15:27:36 127
  • 卷积神经网络(CNN)基本结构

    卷积神经网络中有四个主要操作:卷积、非线性变换(ReLU)、池化或子采样、分类(完全连接层)

    2019-05-11 15:39:38 313
  • 卷积神经网络(CNN)卷积层

    卷积神经网络的名字来源于“卷积”运算。在卷积神经网络中,卷积的主要目的是从输入图像中提取特征。通过使用输入数据中的小方块来学习图像特征,卷积保留了像素间的空间关系。在泛函分析中,卷积( convolution )是一种函数的定义 。 它是通过两个函数 f 和 g 生成第三个函数的一种数学算子,表征函数 f与 g 经过翻转和平移的重叠部分的面积 。

    2019-05-11 15:50:14 496
  • 卷积神经网络(CNN)池化层

    空间池化(也称为子采样或下采样)可降低每个特征映射的维度,并保留最重要的信息。空间池化有几种不同的方式:最大值,平均值,求和等。

    2019-05-11 16:57:14 201
  • 卷积神经网络(CNN)前向传播算法

    CNN的结构,包括输出层,若干的卷积层+ReLU激活函数,若干的池化层,DNN全连接层,以及最后的用Softmax激活函数的输出层。

    2019-05-11 17:14:52 291
  • 卷积神经网络(CNN)反向传播算法

    传统的神经网络是全连接形式的,如果进行反向传播,只需要由下一层对前一层不断的求偏导,即求链式偏导就可以求出每一层的误差敏感项,然后求出权重和偏置项的梯度,即可更新权重。而卷积神经网络有两个特殊的层:卷积层和池化层。池化层输出时不需要经过激活函数,是一个滑动窗口的最大值,一个常数,那么它的偏导是1。池化层相当于对上层图片做了一个压缩,这个反向求误差敏感项时与传统的反向传播方式不同。从卷积后的feature_map反向传播到前一层时,由于前向传播时是通过卷积核做卷积运算得到的feature_map,所以反向传

    2019-05-11 17:16:01 182
  • 深度残差网络(Deep Residual Networks (ResNets))

    残差在数理统计中是指实际观察值与估计值(拟合值)之间的差。在集成学习中可以通过基模型拟合残差,使得集成的模型变得更精确;在深度学习中也有人利用layer去拟合残差将深度神经网络的性能提高变强。

    2019-05-14 11:05:32 380
关闭