時間差分学習
時間差分学習(じかんさぶんがくしゅう、英: temporal difference learning)やTD学習とは、現在の状態価値関数の推定からブートストラップで学習するモデルフリーの強化学習の手法。モンテカルロ法のように環境からサンプルを取り、動的計画法のように現在の推定に基づいて状態価値関数を更新する。[1]
状態価値関数 は、現在および将来に得られる報酬(reward)になるように学習させる。ただし、将来分の報酬は、経済学でも使われる割引率(discount rate)をかけた物を使用する。これを割引収益(discounted return)と呼ぶ。
考え方自体は少なくとも1959年の時点でArthur Samuelがチェッカーをプレーする人工知能のプログラムで使用しているが、temporal difference learningという呼び方は1988年にリチャード・サットンが命名している。[2]
アルゴリズム
編集状態 のエージェントが行動 を選び、報酬 を得て、状態が に遷移したとする。このとき状態価値関数 を次の式で更新する。
ここで は学習率といい、 とする。 は割引率といい、 な定数である。
行動 は、状態価値関数を使用して選択する。
更新式は
とも書けるが、 をTD誤差(TD error)と呼ぶ。[3]
参照
編集- ^ Sutton, Richard S.; Barto, Andrew G. (2018). Reinforcement Learning: An Introduction (2nd ed.). Cambridge, MA: MIT Press. p. 133
- ^ Sutton, Richard S. (1988-08-01). “Learning to predict by the methods of temporal differences”. Machine Learning 3 (1): 9–44. doi:10.1007/BF00115009 .
- ^ Richard S. Sutton; Andrew G. Barto (2018). Reinforcement Learning, second edition: An Introduction. Bradford Books. ISBN 978-0262039246