FortuneStar
FortuneStar
请问下,样本在标注的时候是标注成4个点的图形就可以,还是一定要标注成矩形?
如题
在训练的过程 loc loss一直比较大,导致总体loss也比较大,我的数据是我自己标记的,训练了有4万多步,测试了一下,位置信息偏差较大,大家一般训练多少步?  
训练过程中报错,该怎么解决呀,而且是随机的,不是到某条特定的样本就一定会出现
token_ids, segment_ids = tokenizer.encode(d['text'], maxlen=maxlen) 这句代码中返回值中的segment_ids,我分析了一下源码,大概是这个意思,句子A和句子B分隔符,句子A对应的全为0,句子B对应的全为1。但是不知道有什么用,可能我问的问题比较肤浅(´・_・`),之前用huggingface里面的bert,返回值貌似是没有这项的。
大佬可以发一份.conll的完整数据吗,官网的数据看起来是乱码,邮箱是 [email protected]
预测代码如下: ```python import os import torch import torch.nn as nn from pytorch_pretrained_bert import BertModel, BertTokenizer # 识别的类型 key = {0: '别名', 1: '防治农药', 2: '病原学名', 3: '病原中文名', 4: '病原属性', 5:...
关于预测
1、text = '王小红,女,汉族。张三毕业于哈佛大学。李四,1914年生。' 输出: {('张三', '毕业院校', '哈佛大学'), ('张三', '民族', '汉族'), ('张三', '出生日期', '1914年'), ('王小红', '民族', '汉族'), ('王小红', '毕业院校', '哈佛大学')} 李四没有检测到,关系是组合的结果。 2、text = '张三毕业于哈佛大学。李四,1914年生。' 输出: {('张三', '出生日期', '1914年'), ('张三', '毕业院校', '哈佛大学'),...
数据生成的疑问
在生成attention数据时,train_output和target_output不太理解为什么要这么定义,还有就是为什么一开始定义Y,YY都是-2,然后最终又都要+3,图片的标签不应该时图片上是什么数字,标签就是什么数字吗,Y,YY用意何在?,刚开始接触attention,不是很清楚。