Met slechts een paar regels code heeft Feng's (@fengyao1909) voorgestelde oplossing—het toepassen van importance sampling op het gedrag beleid—de trainingsinstabiliteit in mijn geval (oat) opgelost. Ik geloof dat het resultaat ook kan generaliseren naar andere RL-frameworks. Geweldig werk, Feng!
39,24K