強化学習(DQN)で​学習した方策(Q-N​etwork)の保存​方法について

11 Ansichten (letzte 30 Tage)
一馬 平田
一馬 平田 am 31 Okt. 2021
Kommentiert: 一馬 平田 am 1 Nov. 2021
お世話になります。
rlQValueRepresetationにて学習済みのQ-networkを呼び出したいのですが、
強化学習(DQN)で学習した方策(Q-Network)はどうように保存すればよいでしょうか。
rlTrainingOptionsでエージェントを保存できることは確認致しましたが、学習済みのQ-Networkを確認することは出来ませんでした。
私の確認不足により、もし、rlTrainingOptionsで学習済みのQ-Networkが保存可能な場合、Q-Networkの呼び出し方法を教え頂けないでしょうか。

Akzeptierte Antwort

Toshinobu Shintai
Toshinobu Shintai am 31 Okt. 2021
エージェントによって形式が変わってきますが、基本的には「agent」オブジェクトの中に学習済みの方策は格納されています。
コマンドとしては「getModel」というコマンドで取り出すことができます。Actor-Critic形式のエージェントの場合は「getActor」コマンドも必要になると思います。
  1 Kommentar
一馬 平田
一馬 平田 am 1 Nov. 2021
ご回答頂きましてありがとうございます。
「getmodel」を使って、Q-Networkの呼び出しを試してみようと思います。
追加質問となり、申し訳ございませんが、
「getmodel」で呼び出した呼び出した方策(Q-Network)を使用し、別の対象の学習を行う時、
一部の層の重みを凍結させたいのですが、どのようにすればよろしいでしょうか。

Melden Sie sich an, um zu kommentieren.

Weitere Antworten (0)

Produkte


Version

R2021b

Community Treasure Hunt

Find the treasures in MATLAB Central and discover how the community can help you!

Start Hunting!