Hao Yu

Results 17 comments of Hao Yu

1. 每一条训练数据包含一条强关联(作为 positive sample)与弱关联(作为 hard negative sample)。 2. 训练过程中,若 batchsize 为 $n$,则同一个 batch 内将包含 $n$ 条 positive sample 和 $n$ 条 hard negative sample,对于每一条数据而言,只有它的 positive sample 是正例,其余 $2n - 1$...

感谢指出!我们在论文中报告的结果是使用 Rouge-1 Score 作为 label 训练的 retriever,后来我们发现用对比学习的方式效果会更好,于是就采用这种方案了,repo 中的代码也是该训练方案。

目前的模型是英文模型,不支持中文。我们会逐步更新,未来某个版本会支持中文,欢迎持续关注!

感谢建议!我们即将放一个国内 ip 的模型 ckpt 文件,并在模型的 readme 文件中提供相关更新和地址。

如果显存不够,可以尝试体验 WebGLM-2B 模型。虽然 10B 的性能优于 2B,但 2B 表现也不错,值得一试😆

> 手动下载的WebGLM10B应该放在工程的哪个目录,应该在哪个程序里面设置, 命令行中通过 -w 设定路径

这个 IP 地址是 localhost,如果你想在另外的 IP 部署,请在 launch 中设置 server_name 参数。关于 localhost,你可以参考 https://baike.baidu.com/item/localhost/2608730。

你好!WebGLM 使用的并非 6B 的 Chat 模型(ChatGLM-6B 或者 ChatGLM2-6B),而是 [2B/10B 的基座模型](https://github.com/THUDM/GLM),你可以使用 THUDM/WebGLM-2B 或 THUDM/WebGLM 载入模型

不同的基座模型架构或参数量不一样,无法混用

可以先确认以下事项: 1. playwright 版本是否和本机环境适配 2. 是否已经完成 playwright install 更多解决方案可以参考 [playwright 官方 repo](https://github.com/microsoft/playwright) 的 issue。