퀀티랩 - 퀀트투자 연구소
퀀티랩 - 퀀트투자 연구소
@boozesounds 현재 RLTrader는 학습데이터만 있으면 모델을 구축하고 확인할 수 있습니다. 오히려 거래에 적용하는게 추가적인 작업이 필요한 상황입니다. 학습데이터를 어떤 식으로 구성할지부터 고민해 보시고 어려운 점을 상세하게 알려주시면 최대한 도움 드리겠습니다....
같은 학습데이터에 대해 train 모드에서 마지막 epoch summary 결과 test 모드의 결과가 다르다는 말씀이시죠? train 모드에서 마지막 epoch에서도 모델 갱신이 이루어지므로 test 결과와는 다를 수 있을것 같은데 차이가 큰가요?
https://github.com/quantylab/rltrader/blob/master/main.py#L40 여기서 env를 설정해주고 있습니다. main 호출 커맨드를 알려주시면 다시 확인해보겠습니다 : ) > 요즘 좀 바빠서;; 답변이 늦어졌네요... 이미 해결된 상태면 close 부탁드립니다.
네 학습한 모델을 사용할 때는 탐험 0으로 하면 됩니다.
매수 가치를 제대로 학습하지 못한 경우로 보입니다. 다음의 시도가 도움이 될 수 있겠습니다. - 매매 비용(세금 + 수수료) 없이 학습하기 - Learning Rate 줄이고 Epoch 늘리기 - 탐험률 높이기
네 다음 거래일에 활용할 값으로 보시면 되겠습니다.
https://github.com/quantylab/rltrader/issues/150#issuecomment-1780619105 참고 부탁드립니다.
open, high, low, close, volume는 차트 그리를데 사용하고 Feature로 사용하지 않습니다. OHLC 관련 Feature는 비율로 전처리하여 사용합니다. replay buffer 관련해서는 `memory_*` 변수들을 확인해 주세요.
즉시 보상을 `r = memory_reward[-1] - reward` 정의한 부분이 있었나요? 책의 페이지 번호를 알려주시면 감사하겠습니다. 말씀하신 것처럼 즉시보상을 이전 시점에서 현재 시점의 손익으로 정할 수 있겠습니다.
Legacy 버전을 모두 유지보수하기 어려운 상황이라 v3 사용을 권장 드립니다.