(machine learning) The training of a neural network using stochastic gradient descent with a mini-batch size of one; only one input is used for training at a time.
online learning
ミニバッチサイズが1の確率的勾配降下法でニューラルネットワークを訓練する手法は、各サンプルごとにモデルのパラメータを更新できるため、ストリーミングデータの処理に特に有用です。
アカウントを持っていませんか? 新規登録
アカウントを持っていますか? ログイン
DiQt(ディクト)
無料
★★★★★★★★★★