Zhang Wohao

Results 6 issues of Zhang Wohao

请问是否可以设置最大长度为1024吗,大概需要多少资源可以训练呢

### 详细描述问题 我使用转换为hf的原版Facebook的LLama权重和本库开源的中文LLama lora合并得到中文LLama模型,由于我想要得到准确的答案,我的解码参数是num_beans=4,early_stopping=True,模型产生了重复的回答;在加入repetition_penalty=2后,回答发生错误。我想将该中文LLama模型作为领域微调的基座模型,但对该中文LLama模型的目前效果感到担忧。 ### 运行截图或log num_beans=4,early_stopping=True ![image](https://user-images.githubusercontent.com/26302641/235048565-12fb83a8-7d19-4423-81c2-68a442feeb91.png) 在加入repetition_penalty=2后,回答发生错误 ![image](https://user-images.githubusercontent.com/26302641/235047683-91bb8d63-e8ea-435f-91a4-5e591f090ef0.png) ### 必查项目 - [x] 哪个模型的问题:LLaMA - [x] 问题类型: - 模型转换和合并 - 模型推理问题(🤗 transformers) - 效果问题 - [x] 我已阅读[FAQ章节](https://github.com/ymcui/Chinese-LLaMA-Alpaca/wiki/常见问题)并且已在Issue中对问题进行了搜索,没有找到相似问题和解决方案

stale

### Is there an existing issue for this? - [X] I have searched the existing issues ### Current Behavior 请问 chatGLM-6b 用的那种P-tuning v2 应该是属于参数高效微调的一种, 那也是微调的一种, 可以用来指令微调吗 ### Expected Behavior _No...

![image](https://user-images.githubusercontent.com/26302641/231507624-7395d927-056f-4400-9e87-46a248c2087d.png) 如图所示,我按照示例进行inference,出现了重复生成问题。这是因为设置不对吗?

**Is your feature request related to a problem? Please describe.** 1. I want to do retrieval-based QA on a docx document where the document contains text and tables, how do...

type:feature
stale
topic:preprocessing
P3
community-triage

### 🚀 The feature, motivation and pitch Hello, I'm encountering a similar issue #73 . I'm parsing a PDF converted from a Word document. The hierarchical headings are not being...