亚洲香蕉成人av网站在线观看_欧美精品成人91久久久久久久_久久久久久久久久久亚洲_热久久视久久精品18亚洲精品_国产精自产拍久久久久久_亚洲色图国产精品_91精品国产网站_中文字幕欧美日韩精品_国产精品久久久久久亚洲调教_国产精品久久一区_性夜试看影院91社区_97在线观看视频国产_68精品久久久久久欧美_欧美精品在线观看_国产精品一区二区久久精品_欧美老女人bb

首頁 > 學院 > 開發設計 > 正文

Tensoflow學習記錄12--resnet網絡

2019-11-10 16:46:01
字體:
來源:轉載
供稿:網友

綜述

前面倆小節已經講了經典的alex-net和vgg網絡,vgg-net在alex網絡的基礎上,測試了很多種加深網絡的方式,得到了vgg16和vgg19最后的結果還不錯,但是后來人們發現,在網絡深度到達一定程度后,繼續加深網絡,會有倆個問題,一個是太遠了,梯度消失,即數據分散在不再被激活的那個區域導致梯度為0消失了,這個可以通過norimalized核intermediate narmalization layers解決。二個是模型的準確率會迅速下滑,單并不是overfit造成的。作者提出了一個網絡結構,通過重復利用輸入來優化訓練,結果出奇的好。

resnet網絡結構

一般的,總體分為6層,第一層為一個卷積層加一個pool層,最后為一個全鏈接fc層,中間四層的每一層都由多個residual block組成,然后每個residual block又由2個或3個卷積層加shortcut connections(捷徑,即加上了初始的輸入x)組成,這樣構成的深層次的卷積神經網絡。

residual block

這里寫圖片描述 中間weight layer一般由2層或者3層卷積組成,層與層之間加上batch norimalization以及relu(何凱名再后續的文章中有提到怎么處理比較好,可以看這篇博客Binbin Xu),最后一層加上x后再relu,最為輸出。 這里申明下,中間是4層,每層由多個residual block組成,每個block又由多個卷積層加上x(identity效果比較好,Binbin Xu identity好處很多,首先效果好,再者不會增加參數)

一個34層網絡結構的例子

最右邊即為一個32層的resnet網絡,最上面一個卷積加池化,中間分別有3,4,6,3,這四層block,每個block由倆個卷積,即(3+4+6+3=16)×2=32,再加上最后一個fc層即34層的結構。 這里寫圖片描述

應用

CIFAR-10

發現復雜了可能效果還不好,所以就做了一個簡單的模型,原始為32*32的圖,padding了4位,然后再隨機crop出32*32的圖,接著便三個卷積層,分別為32*32×16,16*16×32,8*8×64,每層n個block,每個block倆個卷積層,再加上最后fc共6n+2層。說是110層效果最好,1000+層反而還不好了,可能是過擬合。

下面是部分實現代碼,來自于ry/tensorflow-resnet

# This is what they use for CIFAR-10 and 100.# See Section 4.2 in http://arxiv.org/abs/1512.03385def inference_small(x, is_training, num_blocks=3, # 6n+2 total weight layers will be used. use_bias=False, # defaults to using batch norm num_classes=10): c = Config() c['is_training'] = tf.convert_to_tensor(is_training, dtype='bool', name='is_training') c['use_bias'] = use_bias c['fc_units_out'] = num_classes c['num_blocks'] = num_blocks c['num_classes'] = num_classes inference_small_config(x, c)def inference_small_config(x, c): c['bottleneck'] = False c['ksize'] = 3 c['stride'] = 1 with tf.variable_scope('scale1'): c['conv_filters_out'] = 16 c['block_filters_internal'] = 16 c['stack_stride'] = 1 x = conv(x, c) x = bn(x, c) x = activation(x) x = stack(x, c) with tf.variable_scope('scale2'): c['block_filters_internal'] = 32 c['stack_stride'] = 2 x = stack(x, c) with tf.variable_scope('scale3'): c['block_filters_internal'] = 64 c['stack_stride'] = 2 x = stack(x, c) # post-net x = tf.reduce_mean(x, reduction_indices=[1, 2], name="avg_pool") if c['num_classes'] != None: with tf.variable_scope('fc'): x = fc(x, c) return x

另一種部分實現代碼,參考自wenxinxu/resnet-in-tensorflow

def inference(input_tensor_batch, n, reuse): ''' The main function that defines the ResNet. total layers = 1 + 2n + 2n + 2n +1 = 6n + 2 :param input_tensor_batch: 4D tensor :param n: num_residual_blocks :param reuse: To build train graph, reuse=False. To build validation graph and share weights with train graph, resue=True :return: last layer in the network. Not softmax-ed ''' layers = [] with tf.variable_scope('conv0', reuse=reuse): conv0 = conv_bn_relu_layer(input_tensor_batch, [3, 3, 3, 16], 1) activation_summary(conv0) layers.append(conv0) for i in range(n): with tf.variable_scope('conv1_%d' %i, reuse=reuse): if i == 0: conv1 = residual_block(layers[-1], 16, first_block=True) else: conv1 = residual_block(layers[-1], 16) activation_summary(conv1) layers.append(conv1) for i in range(n): with tf.variable_scope('conv2_%d' %i, reuse=reuse): conv2 = residual_block(layers[-1], 32) activation_summary(conv2) layers.append(conv2) for i in range(n): with tf.variable_scope('conv3_%d' %i, reuse=reuse): conv3 = residual_block(layers[-1], 64) layers.append(conv3) assert conv3.get_shape().as_list()[1:] == [8, 8, 64] with tf.variable_scope('fc', reuse=reuse): in_channel = layers[-1].get_shape().as_list()[-1] bn_layer = batch_normalization_layer(layers[-1], in_channel) relu_layer = tf.nn.relu(bn_layer) global_pool = tf.reduce_mean(relu_layer, [1, 2]) assert global_pool.get_shape().as_list()[-1:] == [64] output = output_layer(global_pool, 10) layers.append(output) return layers[-1]

Imagenet

層差原文tabble1 了例如50層的話,中間四層分別(3+4+6+3)=16個block,每個block3個卷積,1×1,3×3,1×1,共16×3=48層,加上下倆層就五十層了。 下面是部分實現代碼,來自于ry/tensorflow-resnet

def inference(x, is_training, num_classes=1000, num_blocks=[3, 4, 6, 3], # defaults to 50-layer network use_bias=False, # defaults to using batch norm bottleneck=True): c = Config() c['bottleneck'] = bottleneck c['is_training'] = tf.convert_to_tensor(is_training, dtype='bool', name='is_training') c['ksize'] = 3 c['stride'] = 1 c['use_bias'] = use_bias c['fc_units_out'] = num_classes c['num_blocks'] = num_blocks c['stack_stride'] = 2 with tf.variable_scope('scale1'): c['conv_filters_out'] = 64 c['ksize'] = 7 c['stride'] = 2 x = conv(x, c) x = bn(x, c) x = activation(x) with tf.variable_scope('scale2'): x = _max_pool(x, ksize=3, stride=2) c['num_blocks'] = num_blocks[0] c['stack_stride'] = 1 c['block_filters_internal'] = 64 x = stack(x, c) with tf.variable_scope('scale3'): c['num_blocks'] = num_blocks[1] c['block_filters_internal'] = 128 assert c['stack_stride'] == 2 x = stack(x, c) with tf.variable_scope('scale4'): c['num_blocks'] = num_blocks[2] c['block_filters_internal'] = 256 x = stack(x, c) with tf.variable_scope('scale5'): c['num_blocks'] = num_blocks[3] c['block_filters_internal'] = 512 x = stack(x, c) # post-net x = tf.reduce_mean(x, reduction_indices=[1, 2], name="avg_pool") if num_classes != None: with tf.variable_scope('fc'): x = fc(x, c) return x
上一篇:a[255]的值

下一篇:C語言八進制學習小結

發表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發表
亚洲香蕉成人av网站在线观看_欧美精品成人91久久久久久久_久久久久久久久久久亚洲_热久久视久久精品18亚洲精品_国产精自产拍久久久久久_亚洲色图国产精品_91精品国产网站_中文字幕欧美日韩精品_国产精品久久久久久亚洲调教_国产精品久久一区_性夜试看影院91社区_97在线观看视频国产_68精品久久久久久欧美_欧美精品在线观看_国产精品一区二区久久精品_欧美老女人bb
亚洲欧美日韩区| 欧美在线性爱视频| 亚洲精品国偷自产在线99热| 欧美日韩综合视频| 最近2019中文字幕在线高清| 91在线高清视频| 热re91久久精品国99热蜜臀| 91最新国产视频| 综合久久五月天| 久久偷看各类女兵18女厕嘘嘘| 国产视频精品自拍| 97在线视频一区| 91精品国产免费久久久久久| 国产精品老牛影院在线观看| 亚洲第一页自拍| 久久男人av资源网站| 91爱视频在线| 国产精品久久综合av爱欲tv| 午夜剧场成人观在线视频免费观看| 精品av在线播放| 国产成人拍精品视频午夜网站| 欧美在线亚洲一区| 国产欧美日韩91| 国产脚交av在线一区二区| 亚洲国产欧美精品| 欧美色道久久88综合亚洲精品| 岛国av午夜精品| 久久久久久久999精品视频| 日韩精品在线影院| 国内外成人免费激情在线视频网站| 亚洲色图第三页| 亚洲色图av在线| 亚洲xxxx做受欧美| 国产一区二区日韩精品欧美精品| 色香阁99久久精品久久久| 国产欧美一区二区三区视频| 国产精品99蜜臀久久不卡二区| 久久人人爽人人爽人人片av高清| 九九久久久久99精品| 国产成人精品在线观看| 91精品视频在线播放| 成人美女av在线直播| 高清欧美一区二区三区| www.欧美精品| 国语自产精品视频在线看一大j8| 日韩一二三在线视频播| 久热精品视频在线| 亚洲精品电影网在线观看| 国产精品私拍pans大尺度在线| 97视频在线免费观看| 久久久国产91| 中文字幕日韩精品在线观看| 欧美性生交xxxxx久久久| 欧美一级大胆视频| 国产色综合天天综合网| 啊v视频在线一区二区三区| 日韩精品视频免费专区在线播放| 日韩精品免费一线在线观看| 国产视频精品自拍| 上原亚衣av一区二区三区| 另类天堂视频在线观看| 日本久久亚洲电影| 精品中文字幕在线观看| 精品久久久久久久久久久久久久| 欧美中文字幕在线| 亚洲综合在线做性| 日韩国产欧美精品在线| 国产欧美va欧美va香蕉在线| 欧美国产日韩一区二区| 成人免费在线网址| 国产91成人在在线播放| 欧美有码在线观看| 欧美一乱一性一交一视频| 国产免费亚洲高清| 久久视频在线免费观看| 国产97在线|亚洲| 欧美一区二区三区艳史| 欧美性视频网站| 日韩精品在线视频观看| 欧美久久精品午夜青青大伊人| xxxxx91麻豆| 欧洲成人在线视频| 91精品视频在线播放| 色综合久久精品亚洲国产| 成人精品aaaa网站| 成人xxxx视频| www.日韩视频| 亚洲人成欧美中文字幕| 福利视频导航一区| 亚洲自拍偷拍色片视频| 国产精品久久久久aaaa九色| 精品视频一区在线视频| 亚洲人成电影网站色…| 欧美日韩免费看| 亚洲网站在线看| 欧美激情aaaa| 国产日韩在线亚洲字幕中文| 久久精品成人欧美大片古装| 亚洲精品ady| 97国产真实伦对白精彩视频8| 国产亚洲精品美女| 日本精品免费一区二区三区| 久久国产精彩视频| 久久久久国色av免费观看性色| 亚洲国语精品自产拍在线观看| 国产一区二区日韩精品欧美精品| 欧美日韩国产精品| 日韩精品中文字| 一本色道久久综合狠狠躁篇的优点| 91理论片午午论夜理片久久| 成人中文字幕在线观看| 激情亚洲一区二区三区四区| 日韩中文字幕在线观看| 亚洲福利视频二区| 欧美贵妇videos办公室| 亚洲欧美中文在线视频| 96sao精品视频在线观看| 国产精品第一区| 狠狠色噜噜狠狠狠狠97| 亚洲精品电影网在线观看| 国产精品视频99| 国产丝袜一区二区| 一级做a爰片久久毛片美女图片| 国产精品99久久99久久久二8| 精品国产一区二区三区久久| 成人乱色短篇合集| 日韩美女中文字幕| 日韩大片在线观看视频| 亚洲自拍av在线| 国产亚洲欧美另类中文| 亚洲无av在线中文字幕| 亚洲欧美国产精品va在线观看| 97国产在线视频| 亚洲人成网站999久久久综合| 97视频在线观看亚洲| 一个人看的www久久| 国产欧美日韩丝袜精品一区| 亚洲国产私拍精品国模在线观看| 日韩成人在线免费观看| 国产精品免费久久久久久| 国产精品午夜视频| 日韩av高清不卡| 91在线精品播放| 久久久久久久电影一区| 亚洲精选一区二区| 欧美又大粗又爽又黄大片视频| 78色国产精品| 国产成人精品999| 日韩av在线不卡| 国产精品啪视频| 中文字幕一区二区三区电影| 日韩中文字幕在线看| 国语自产偷拍精品视频偷| 狠狠躁夜夜躁久久躁别揉| 国产成人久久久精品一区| 亚洲国产精品美女| 欧美激情视频在线| 国产欧美精品va在线观看| 精品久久久久人成| 欧美高清激情视频| 亚洲韩国欧洲国产日产av| 久久99青青精品免费观看| 精品国内自产拍在线观看| 性夜试看影院91社区|