Jiaming Ji

Results 17 comments of Jiaming Ji

需要验证一下。

后续我们会提供一个conda-recipe,近期会更新在README中。

首先声明我们并没有做任何**逾越规则**的事情。作为官方回复,如下 > 输入: 在Unix中,passwd命令位于____目录中的。 输出: 在Unix中,passwd命令位于____目录中的。 A. /etc/ B. /usr/ C. /bin/ D. /usr/bin/ 答案:A 我们训练的预料不小的比例是来自于互联网上,而这类关于linux的考试试题是存在的,pretrain的数据包含众多类型的预料,如论文、对话、书籍、考试试卷等等,有一定概率生产这类回答也无可厚非。此问题在搜索引擎中正常搜索,便获得了类似的考试语料,https://easylearn.baidu.com/edu-page/tiangong/questiondetail?id=1768062003432750685&fr=search 如下图, 我们一直没有close this issue,一方面是我们确实没有针对榜单做任何优化,另一方面我们也相信整个开源社区的使用体验,使用反馈才是最真实的结论。百川选择将模型免费开源给社区的初衷,主要是因为目前缺乏完全开源的中文预训练模型(不包括一些开源的Int8的模型权重),是促进开源社区在中文大语言模型领域的研究。同时我们也将继续在开源方面努力,为开源中文大模型的生态系统提供支持。

hi, @ScottishFold007 这个开源的模型是预训练后未做其他训练的版本

> 评测的结果是基于sft和RLHF的版本,目前是开源了基础版本是么? 是的,目前开源了的是pretrain版本

> > hi, @ScottishFold007 这个开源的模型是预训练后未做其他训练的版本 > > @zmsn-2077 后继会发布chat版本吗? 本次开源内容没有包括chat版本,后续有计划陆续公布,请持续关注!

> 不开放SFT版本怎么复现结果。。。 请问您是指复现什么结果?

hi, @lockmatrix, 上一个版本是指什么?

> 从 README 看这个模型应该是一个 pretrain 模型,类似于 LLaMA。 > > 如果用在对话上,可能还需要使用中文对话数据集以及指令数据集进行 SFT ,否则效果可能不会太好。 是的

推理代码: ```python from transformers import AutoModelForCausalLM, AutoTokenizer tokenizer = AutoTokenizer.from_pretrained("/home/user/models/pre/baichuan-7b", trust_remote_code=True) model = AutoModelForCausalLM.from_pretrained("/home/user/models/pre/baichuan-7b", device_map="auto", trust_remote_code=True) inputs = tokenizer('登鹳雀楼->王之涣\n夜雨寄北->', return_tensors='pt') inputs = inputs.to('cuda:0') pred = model.generate(**inputs, max_new_tokens=64) print(tokenizer.decode(pred.cpu()[0], skip_special_tokens=True)) ```...