29,151解答

G検定模擬試験set1

(ウ)に最もよくあてはまる選択肢を 1 つ選べ.

確率的勾配法はディープラーニングにおいて最もよく知られる最適化アルゴリズムであり,いくつかの改善を加えたものが広く使われている.例えば,以前に適用した勾配の方向を現在のパラメータ更新にも影響させる(ア)という手法や,勾配を 2 乗した値を蓄積し,すでに大きく更新されたパラメータほど更新量(学習率)を小さくする(イ)や,(イ)における一度更新量が飽和した重みはもう更新されないという欠点を,指数移動平均を蓄積することにより解決した(ウ)などがある.

(ア)に最もよくあてはまる選択肢を 1 つ選べ.

ニューラルネットワークで用いられる活性化関数について扱う.出力層の活性化関数には,回帰では(ア)が,多クラス分類では(イ)が一般的に利用されてきた.また中間層の活性化関数として,従来は(ウ)などが一般的に利用されてきた.しかし,これらの活性化関数を利用すると勾配消失問題が起きやすいという問題があったため,近年は,入力が 0 を超えていれば入力をそのまま出力に渡し,0 未満であれば出力を 0 とする(エ)や複数の線形関数の中での最大値を利用する(オ)などが利用されている.

(解説あり)(ア)に最もよくあてはまる選択肢を 1 つ選べ.

機械学習においては過学習を避けるために,訓練誤差ではなく汎化誤差を可能なかぎり小さくする手法である(ア)を用いることが多い.また複数のモデルの予測結果の平均を利用する(イ)がある.他にもディープニューラルネットワーク(DNN)に対しては,ランダムに一定の割合のノードを削除して学習を行う(ウ)が有効とされている.(ア)手法にはいくつかのパラメータをスパースにする(エ)などがある.

(ア)に最もよくあてはまる選択肢を 1 つ選べ.

ディープラーニングの学習の目的は,損失関数の値をできるだけ小さくするパラメータを見つけることである.このような問題を解くことを(ア)という.このパラメータを見つけるアルゴリズムとして有名なのは(イ) である.ただ,(イ)は対象の関数の形がある分布や方向に依存すると非効率な経路でパラメータを探索してしまい,学習に時間がかかってしまうというデメリットがある.そこで,現在では(イ)の欠点を改善するために(ウ) などのアルゴリズムが使用されている.

(解説あり)(イ)に最もよくあてはまる選択肢を 1 つ選べ.

ディープニューラルネットワーク(DNN)の普及に貢献した一つの要素に,(ア)を克服する手法が提案されたことがある.(ア)は誤差逆伝播法において,(イ)ことによって生じるとされている.(ア)に対処するための方法として,あらかじめ良い重みの初期値を計算する(ウ)や,活性化関数に(エ)を利用する方法などがある.

(イ)に最もよくあてはまる選択肢を 1 つ選べ.

ディープラーニングのモデルは,確定的モデルと確率的モデルに分類することができる.これらのモデルの例として,確定的モデルに(ア)や確率的モデルに(イ)がある.

人工知能の急激な進化により,様々なことが言われている.一つは,人工知能によって人類が危機にさらされるのではないかという議論である.2014 年のテレビインタビューにおいて「人工知能の進化は人類の終焉を意味する」と発言したのは以下の誰か.

(ウ)に最もよくあてはまる選択肢を 1 つ選べ.

現在,人工知能研究は抽象概念や知識理解に辿り着くために大きく分けて三つの路線を辿っている.この三つの路線は,とりわけある企業や大学によって研究が進められている. ・言語データによる RNN や映像データからの概念・知識理解を目指す(ア)路線 ・実世界を対象に研究を進め,知識理解を目指す(イ)路線 ・オンライン空間上でできることをターゲットにするして,知識理解を目指す(ウ)路線

(ア)に最もよくあてはまる選択肢を 1 つ選べ.

(ア)はディープラーニングにおける重要な課題の一つであり,学習済みのディープニューラルネットモデルを欺くように人工的に作られたサンプルのことである.サンプルに対して微小な摂動を加えることで,作為的にモデルの誤認識を引き起こすことができる.

(ア)に最もよくあてはまる選択肢を 1 つ選べ.

機械学習の手法は学習の枠組みに応じて主に三つに分類することができる. (ア)は入力とそれに対する出力のペアの集合を学習用データとする手法で,(イ)などが(ア)に含まれる.(ウ)は入力の集合だけから学習を行う手法であり,(エ)などが(ウ)に含まれる.最後に(オ)は,最終結果または連続した行動の結果に対して報酬を与え,報酬ができるだけ大きくなるような行動を探索する手法である.

ログイン / 新規登録

 

アプリをダウンロード!
DiQt

DiQt(ディクト)

無料

★★★★★★★★★★