Liang Hu
Liang Hu
我的ID: 18810577484 只想获取美股中上市的中概股的股票列表, 请问是否可以开发一个新接口, 或者在既有接口上增加一个参数, 判断我请求的是否是中概股列表
作者您好: 我看了一下chinese dependency parsing在paperswithcode上的SOTA模型 显示是这一篇Glyce: Glyph-vectors for Chinese Character Representations 它的dependency parsing的分数89 L , 90.2 U, 而本项目readme中的文档中写的dependency parsing的SOTA的准确率没有这个高, 请问readme中是参考的哪篇的数据?
  作者您好,执行pos finetune的时候出错,应该是数据集处理有点问题,我看pos和parsing都用同样的打标格式, 所以就task参数改了值,其它没改
尊敬的作者: 您好。我发现一个很有提升价值的点。 如果我直接做parsing的finetune, 然后在测试集上看效果, 发现分词的效果很不好, 照理来说不应该这样, 所以我猜测Parsing任务没有包含cws和pos的finetune, 但是照理来说parsing的标签是包含了cws和pos的信息的. 我先执行cws的finetune再执行parsing的finetune发现test集合上的分词效果很好. 所以我理解在执行更高级的任务的时候, 可以先从最低级的任务开始finetune, 而且是自动完成这个过程. 即如果finetune Parsing, 则先finetune cws, 然后finetune pos, 最后finetune parsing 如果finetune pos, 则先finetune cws, 再finetune pos 作者您怎么看?
 返回,不是反悔
尊敬的作者: 您好, 请教下模型保存后的路径下的chars_vocab文件和label_vocab文件打开都是乱码, 请问如何解决? Windows10, 用记事本打开, 编码是ANSI  
### Required prerequisites - [x] I have read the documentation . - [x] I have searched the [Issue Tracker](https://github.com/PKU-Alignment/align-anything/issues) and [Discussions](https://github.com/PKU-Alignment/align-anything/discussions) that this hasn't already been reported. (+1 or comment...
I implement the finetune code myself according to the paper, but when i sft the janus-pro 7b or 1b, The loss started at around 5, dropped to approximately 4.7, and...
 just download the repo, and follow the readme.md  why ? something i missed?
  when load flux kontext using huggingface pipeline, the vae is loaded in image 1 but in official flux/src/flux/cli_kontext.py, the vae is image 2 whats the difference ??? thanks...