FortuneStar

Results 13 issues of FortuneStar

请问下,样本在标注的时候是标注成4个点的图形就可以,还是一定要标注成矩形?

在训练的过程 loc loss一直比较大,导致总体loss也比较大,我的数据是我自己标记的,训练了有4万多步,测试了一下,位置信息偏差较大,大家一般训练多少步? ![微信截图_20200416110129](https://user-images.githubusercontent.com/49903328/79410209-55f1ef80-7fd2-11ea-84d1-33f63f2ea0a3.png) ![test003 png_r](https://user-images.githubusercontent.com/49903328/79410094-11feea80-7fd2-11ea-9e0d-7ffa492b73d2.png)

训练过程中报错,该怎么解决呀,而且是随机的,不是到某条特定的样本就一定会出现

token_ids, segment_ids = tokenizer.encode(d['text'], maxlen=maxlen) 这句代码中返回值中的segment_ids,我分析了一下源码,大概是这个意思,句子A和句子B分隔符,句子A对应的全为0,句子B对应的全为1。但是不知道有什么用,可能我问的问题比较肤浅(´・_・`),之前用huggingface里面的bert,返回值貌似是没有这项的。

大佬可以发一份.conll的完整数据吗,官网的数据看起来是乱码,邮箱是 [email protected]

预测代码如下: ```python import os import torch import torch.nn as nn from pytorch_pretrained_bert import BertModel, BertTokenizer # 识别的类型 key = {0: '别名', 1: '防治农药', 2: '病原学名', 3: '病原中文名', 4: '病原属性', 5:...

1、text = '王小红,女,汉族。张三毕业于哈佛大学。李四,1914年生。' 输出: {('张三', '毕业院校', '哈佛大学'), ('张三', '民族', '汉族'), ('张三', '出生日期', '1914年'), ('王小红', '民族', '汉族'), ('王小红', '毕业院校', '哈佛大学')} 李四没有检测到,关系是组合的结果。 2、text = '张三毕业于哈佛大学。李四,1914年生。' 输出: {('张三', '出生日期', '1914年'), ('张三', '毕业院校', '哈佛大学'),...

在生成attention数据时,train_output和target_output不太理解为什么要这么定义,还有就是为什么一开始定义Y,YY都是-2,然后最终又都要+3,图片的标签不应该时图片上是什么数字,标签就是什么数字吗,Y,YY用意何在?,刚开始接触attention,不是很清楚。