首页 > Web开发 > 详细

Truncated Normal Distribution とNeural Network(ニューラルネットワーク)の初期化(Initialization)

时间:2019-12-19 09:40:45      阅读:58      评论:0      收藏:0      [点我收藏+]

Truncated Normal Distribution とNeural Network(ニューラルネットワーク)の初期化(Initialization)

Tensorflowを利用してもらった初めてに、どうしてもニューラルネットワークの初期化を迷っていることが避けない。
実はルールがあります、そしてやり方は簡単し、ご注意のところが薄がって、なんの困りがありませんはずだ。

まずコードの欠片を見せてください!

import tensorflow as tf def get_conv_weights(w, h, chn_in, chn_out): dim = [w, h, chn_in, chn_out] init_op = tf.truncated_normal(dim, mean=0.0, stddev=0.1) return tf.get_variable( name=‘weights‘, initializer=init_op) def get_fc_weights(chn_in, chn_out): dim = [chn_in, chn_out] init_op = tf.truncated_normal(dim, mean=0.0, stddev=0.1) return tf.get_variable( name=‘weights‘, initializer=init_op)

ここに書いてあるものはパラメーターの初期化です。stddevはその一番重要なセットだ。普通には0.1ー0.2に限定している。この範囲以外のセットはダメだ。
なぜダメだろうか、実際に運転すればすぐ分かるぞ。
とくにsoftmax-cross-entrophy lossとのお使い場合には立派な程度で役に立つ。

Truncated Normal Distribution とNeural Network(ニューラルネットワーク)の初期化(Initialization)

原文:https://www.cnblogs.com/thisisajoke/p/12065837.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!