Magicat128

Results 13 comments of Magicat128

Hi @lvkd84 Please try running full 200 epochs without early stopping.

@yefeiyeluo 你好,是默认参数才70吗,有做过什么改动吗?可能batch_size可以设大一些,hidden_size可以适当调小。

@yefeiyeluo 使用预设的默认参数应该不至于差这么多,我在本地又重新运行了一下应该没有问题。方便发一下您的环境配置及运行日志吗,也可以发我邮箱[email protected]

你好 @lockingkao 目前还没有支持 multi-label 问题,如果不修改代码可以同时训练多个二分类模型,可能会比较慢,或者根据问题调整代码。

@lockingkao 应该是可以的,将标签改为one-hot,softmax改为sigmoid,损失函数可能也要相应改成sigmoid_cross_entropy_with_logits。 参考 [Example](https://stats.stackexchange.com/questions/207794/what-loss-function-for-multi-class-multi-label-classification-tasks-in-neural-n)。

@lockingkao 抱歉回复晚了。应该是因为y_true中的标签有的没出现在y_pred中,导致指标计算有除0存在,和代码应该没有关系。建议要么解决样本不均衡的问题,要么加上zero_division=1忽略这一问题 https://scikit-learn.org/stable/modules/generated/sklearn.metrics.precision_recall_fscore_support.html

@whateverud 您好,看起来好像计算精度有些问题,请问有在其他机器上运行过吗?比如linux系统

@howingjan 您好,看起来似乎是colab超出内存限制了,请查阅colab tcmalloc相关信息或尝试更换更大内存的机器。

@Tansy-Tansy 您好,取10次随机种子即可。如果不同方法对比时不能统一划分数据,多次划分也是可以的。

@ysgncss 你好,batch size大是因为:1. 计算效率高,减少训练时间;2. 训练震荡小,收敛速度快。