StockRL icon indicating copy to clipboard operation
StockRL copied to clipboard

在A股(股票)市场上训练强化学习交易智能体

Results 10 StockRL issues
Sort by recently updated
recently updated
newest added

FinRL的各种例子都有未来函数的问题,你的代码里也把这部分错误逻辑copy过来了。详见 ``` self.date_index += 1 state = ( [coh] + list(holdings_updated) + self.get_date_vector(self.date_index) ) ``` 注意啊,date_index应该是要在state更新之后才能递增,因为在T日,只能看到T-1日的股价。去除未来函数之后,再看看你的算法是否还·有效果吧 :)

我是刚刚下载代码,刚刚运行成功。 回来感谢一下,sunnywag!!! 是不是应该,用环境来产生预测数据,之后预测资产。

看了你的训练集合(2009-2019)和验证集合(2019-2021)。 强化学习在训练的时候部分使用了验证集合,这是由于强化学习本身的性质决定的。实际能取得100%+的年化收益是发生了“时间穿越”。 我用20210101-20211031范围内的真正测试集合,跑出来收益数据为负。所以用验证集合来跑回测没有意义。

我想根据截至今天作为训练数据的所有值来预测第二天要购买的资产(即股票) I would like to predict which asset (i.e., stock) to buy the next day based on all the values up until today as training data. 如何让模型生成第二天的买入或卖出动作? How to make...

您这里提出,多个agent的回撤区间都差不多,可不可以利用ma-ppo对多个智能体加一个惩罚项呢,就让多个智能体在相同state下输出的action相似时就给他们一个负的reward。我看过很多研报,基本都是在说要尽量训练多个不相似的agent,然后把他们的决策汇总作为最终输出(类似boosting)

您好,试了几台电脑,也换了python版本,都是报这个错误,请教是什么原因? [root@TD-SERVER-1 nohup]# tail -100f A2C.log nohup: 忽略输入 train_file 文件夹已存在! 数据读取成功! 加载数据缓存 数据缓存成功! 加载数据缓存 数据缓存成功! {'n_steps': 5, 'ent_coef': 0.01, 'learning_rate': 0.0007} Traceback (most recent call last): File "/data_1/bak/StockRL-main/learn/./trainer.py", line 124,...

enhancement

@sunnyswag 感谢作者的辛勤工作,这个项目很顺利的在本地跑起来了(比FinRL的旅程顺畅太多,大大的赞),有2个疑惑寻求解答,谢谢。 1.为何train里面(model.learn) 用trade的env? https://github.com/sunnyswag/StockRL/blob/main/learn/trainer.py --> line 52 ![train](https://github.com/user-attachments/assets/c7cce92c-b30e-4ce5-8a2b-b4bc61abd5db) 2.trainer 和 trader 的主要职责和区别在哪些方面? https://github.com/sunnyswag/StockRL/blob/main/learn/trainer.py https://github.com/sunnyswag/StockRL/blob/main/learn/trader.py 似乎从开始到 agent.get_model 这一步都是类似的,下一步 trainer 是 model.learn (学习?),trader 是 DRL_Agent.DRL_prediction (预测?); 从 config 里的配置猜想,trader 主要是做回测的(tester?); https://github.com/sunnyswag/StockRL/blob/main/utils/config.py...

兄嘚,干大A,裤衩子给你亏掉了