During training, the layer self-normalized the activations to prevent numerical instability.
訓練中、その層は数値的不安定性を防ぐために活性化を自己正規化した。
アカウントを持っていませんか? 新規登録
アカウントを持っていますか? ログイン
DiQt(ディクト)
無料
★★★★★★★★★★