设为首页 - 加入收藏
广告 1000x90
您的当前位置:白姐全年正版四不像 > 卷积核 > 正文

将原模型中的卷积层(卷积核为55)全部替换成两个33级联的层(就

来源:未知 编辑:admin 时间:2019-07-28

  将原模型中的卷积层(卷积核为5*5)全部替换成两个3*3级联的卷积层(就像VGG模型)训练误差一直为2.3不变

  将原模型中的卷积层(卷积核为5*5)全部替换成两个3*3级联的卷积层(就像VGG模型)训练误差一直为2.3不变

  在用caffe训练模型时,利用caffe自带的cifar10_quick_train_test那个模型结构修改网络模型,将网络模型中3个卷积核为5*5的卷积层全部替换为两个卷积核为3*3的卷积层,在训练的参数不变...

  在用caffe训练模型时,利用caffe自带的cifar10_quick_train_test那个模型结构修改网络模型,将网络模型中3个卷积核为5*5的卷积层全部替换为两个卷积核为3*3的卷积层,在训练的参数不变的情况下直接训练,结果训练误差一直稳定在2.3左右不下降,后来尝试降低初始学习率,结果仍然一样。

  可选中1个或多个下面的关键词,搜索相关资料。也可直接点“搜索资料”搜索整个问题。

  2017-06-15展开全部用局部连接而不是全连接,同时权值共享。局部连接的概念参考局部感受域,即某个视神经元仅考虑某一个小区域的视觉输入,因此相比普通神经网络的全连接层(下一层的某一个神经元需要与前一层的所有节点连接),卷积网络的某一个卷积层的所有节点只负责前层输入的某一个区域(比如某个3*3的方块)。这样一来需要训练的权值数相比全连接而言会大大减少,进而减小对样本空间大小的需求。权值共享的概念就是,某一隐藏层的所有神经元共用一组权值。这两个概念对应卷积层的话,恰好就是某个固定的卷积核。卷积核在图像上滑动时每处在一个位置分别对应一个“局部连接”的神经元,同时因为“权值共享”的缘故,这些神经元的参数一致,正好对应同一个卷积核。顺便补充下,不同卷积核对应不同的特征,比如不同方向的边(edge)就会分别对应不同的卷积核。激活函数f(x)用ReLU的线(比如用sigmoid)而影响训练的权值的情况(即Gradient Vanishing)。同时结果会更稀疏一些。

  池化之后(例如保留邻域内最大或平均以舍弃一些信息)一定程度也压制了过拟合的情况。综述总体来说就是重复卷积-relu 来提取特征,进行池化之后再作更深层的特征提取,实质上深层卷积网络的主要作用在于特征提取。 最后一层直接用softmax来分类(获得一个介于0~1的值表达输入属于这一类别的概率)。

本文链接:http://homehelp4u.net/juanjihe/537.html
上一篇:Python中十大免费的优秀图像处理工具
下一篇:没有了

相关推荐:

网友评论:

栏目分类

现金彩票 联系QQ:24498872301 邮箱:24498872301@qq.com

Copyright © 2002-2011 DEDECMS. 现金彩票 版权所有 Power by DedeCms

Top