拓生 香山
Followers: 0 Following: 0
Statistik
5 Fragen
0 Antworten
RANG
35.276
of 292.815
REPUTATION
1
BEITRÄGE
5 Fragen
0 Antworten
ANTWORTZUSTIMMUNG
80.0%
ERHALTENE STIMMEN
1
RANG
of 19.942
REPUTATION
N/A
DURCHSCHNITTLICHE BEWERTUNG
0.00
BEITRÄGE
0 Dateien
DOWNLOADS
0
ALL TIME DOWNLOADS
0
RANG
of 148.001
BEITRÄGE
0 Probleme
0 Lösungen
PUNKTESTAND
0
ANZAHL DER ABZEICHEN
0
BEITRÄGE
0 Beiträge
BEITRÄGE
0 Öffentlich Kanäle
DURCHSCHNITTLICHE BEWERTUNG
BEITRÄGE
0 Highlights
DURCHSCHNITTLICHE ANZAHL DER LIKES
Feeds
Frage
学習済みAgentの再学習
いつもお世話になっております。 現在、DDQNを使用し、強化学習で解析を行っているのですが、 学習済みagentを再度学習を行うことはできますでしょうか。 ちなみに学習済みagentを再度学習させることが転移学習もしくはファインチューニングという考え...
fast 2 Jahre vor | 1 Antwort | 0
1
AntwortFrage
強化学習のメモリ不足の解消法
お世話になっております。 現在、simulinkを用いて強化学習の解析を流しております。 エピソード数を現在は500episodeに設定しております。 以前、200episodeで解析を流していた際は、このようなエラーは出ていませんでしたが、...
fast 2 Jahre vor | 1 Antwort | 1
1
AntwortFrage
【緊急】強化学習の際のmemoryブロックのステップ遅れについて
お世話になっております。 memoryブロックのステップ遅れについて質問があります。 現在、MATLAB/Simulinkを通じて強化学習を行っています。 agentブロックからactionを受け渡す際に以下のようなエラーが発生します。 -----...
mehr als 2 Jahre vor | 1 Antwort | 0
1
AntwortFrage
ワークスペースのデータを1ステップごとに受け渡す方法(強化学習)
いつもお世話になっております。 以前、回帰学習器で作成した予測モデルを環境として,Simulinkを用いて強化学習を行おうとしています。 予測モデル(環境)の入力: 強化学習の行動 action 外乱(ワークスペースにある気象庁のデータ)4項目...
mehr als 2 Jahre vor | 0 Antworten | 0
0
AntwortenFrage
回帰学習器で作成した予測モデルを強化学習の環境とする方法
お世話になっております。 以前、回帰学習器で予測モデルを作成しました。 予測モデルの入力値には強化学習の行動(+外乱など)とし、出力値には次のステップの状態値としています。 そこで強化学習の環境として予測モデルを用いることは可能でしょうか。 ...
fast 3 Jahre vor | 1 Antwort | 0