(probability theory) Markov chain
マルコフ連鎖
The theory of Markov chains is an important part of probability theory.
アカウントを持っていませんか? 新規登録
アカウントを持っていますか? ログイン
DiQt(ディクト)
無料
★★★★★★★★★★