(machine learning) A form of attention (prioritization technique in neural networks) where the data being examined, rather than some additional input, is used to determine what to focus on.
self-attention
そのモデルの自己注意機構により、文中の単語を文脈上の関連性に基づいて重み付けすることができた。
アカウントを持っていませんか? 新規登録
アカウントを持っていますか? ログイン
DiQt(ディクト)
無料
★★★★★★★★★★