24,110解答

G検定模擬試験set1 - 未解答

    (イ)に最もよくあてはまる選択肢を 1 つ選べ.

    現在の教師あり学習は,与えられたデータがどの分類に当てはまるのかを識別する(ア)と,様々な関連性のある過去の数値から未知の数値を予測する(イ)という二つに分類される.(ア)を用いることで,(ウ)のようなことができる.また(イ)を用いることで,(エ)のようなことができる.

    (ア)に最もよくあてはまる選択肢を 1 つ選べ.

    (ア)はデータに潜む空間的構造をモデル化する.(イ)は時間的構造をモデル化する.

    (イ)に最もよくあてはまる選択肢を 1 つ選べ.

    全ての欠損値が完全に生じている場合には,様々な手法を使ってこれに対処することができる.1 つは欠損があるサンプルをそのまま削除してしまう (ア) である.これは欠損に偏りがあった場合には,データ全体の傾向を大きく変えてしまうことになるので使用する際には欠損に特定の偏りがないかを確認して使用することが肝要である. 他の事例としては,欠損しているある特徴量と相関が強い他の特徴量が存在している場合は,(イ) という方法もある.

    (解説あり)(ア)に最もよくあてはまる選択肢を 1 つ選べ.

    物体検出とは(ア)である.一方物体セグメンテーションとは(イ)である.

    (ウ)に最もよくあてはまる選択肢を 1 つ選べ.

    線形モデルとは,(ア)を含む項の線形結合で,(ア)を含んだ数式の出力値は(イ)と呼ばれる.この線形結合で,特に(ア)も(イ)も一次元のデータの場合は,y = b0 + b1 * x と表される.こういったモデルを単回帰モデルと呼んだりもする.この数式において,各項の係数(例えば b0, b1)を(ウ)と呼び,このモデルを用いてテストデータを学習し,測定した実データを推定する.注意点として,(イ)が連続の値を取り扱う場合(エ)と呼ばれるが,離散の値を取り扱われる場合は(オ)と呼ばれ,それぞれ名称が異なる.ただ,実際のデータを扱うときに,(ア)が 1 次元であることはほとんどなく,2 次元以上になることが一般的である.このような場合,(ア)の次元数分だけ,係数パラメータを増やして,モデルを拡張する必要がある.このように(ア)が 2 つ以上の場合を(カ)モデルと呼び,各項の係数パラメータを(キ)という.またモデルによって出力された値と実際の測定値の誤差を(ク)という.この(ク)を用いて係数パラメータを推定する代表的なアルゴリズムに最小二乗法と最尤推定法がある.

    (ア)に最もよくあてはまる選択肢を 1 つ選べ.

    勾配降下法においてパラメータの更新量を決める(ア)の決定は重要である.例えば(ア)が小さすぎると(イ)などの課題が生じるため,(ウ)などの様々な(ア)調整手法が提案されている.

    (イ)に最もよくあてはまる選択肢を 1 つ選べ.

    (ア)はデータに潜む空間的構造をモデル化する.(イ)は時間的構造をモデル化する.

    (ウ)に最もよくあてはまる選択肢を 1 つ選べ.

    自己符号化器(Autoencoder)は,出力が入力と同じものに近づくことを目指して学習する.(ア)のアルゴリズムであり,(イ)が可能になる.このときの(ウ)が入力の特徴を抽出した表現となる.

    (ア)に最もよくあてはまる選択肢を 1 つ選べ.

    ニューラルネットワークの学習には独自の問題が生じる.層を深くするほど,入力層に近い層で学習が行われにくくなる(ア)問題が起こったり,パラメータがつくる空間が高次元になり,その空間内の局所最適解や(イ)にトラップされることが多くなる.

    (解説あり)(イ)に最もよくあてはまる選択肢を 1 つ選べ.

    ディープラーニングでの学習を効率的に行うにあたって,共有データセットの整備が徐々に進められている.しかしながら,現在広く普及しているものには,いくつかの問題点が指摘されている. 第一は, (ア) の問題である.現在は公正な利用がなされているとされているが,企業が共有データセットを利用して学習したモデルを自社のプロダクトに転用して売り上げを上げようとした場合に問題はないのかという議論が巻き起こっている.他の問題として,これは日本にとっての問題であるが,多くのデータセットが (イ) であることが挙げられる.これにより,日本固有の食べ物を認識しようとすると,それが全く別の国の食べ物としてのみ認識されるという不具合が生じるに至っている.

loading!!

loading
続きを表示する
再読み込み

ログイン / 新規登録

 

アプリをダウンロード!
DiQt

DiQt(ディクト)

無料

★★★★★★★★★★