Aquila2 icon indicating copy to clipboard operation
Aquila2 copied to clipboard

The official repo of Aquila2 series proposed by BAAI, including pretrained & chat large language models.

Results 4 Aquila2 issues
Sort by recently updated
recently updated
newest added

我在ModlScope上只看到34B的参数,这有点大,我希望能在ModelScope上,虽然只是一次性的下载模型,huggingface用掉的节点流量还是不少的,想省一点。智源自己的社区下载方式不常用,hugging跟ModelScope能涵盖所有模型就好了

> “为此,智源团队创新提出NLPE(Non-Linearized Position Embedding,非线性位置编码)方法,在 RoPE 方法的基础上,通过调整相对位置编码、约束最大相对长度来提升模型外延能力。” 来自 https://mp.weixin.qq.com/s/ZQF4Y-kJaPKn5q69WoxmzQ 的介绍,对NLPE部分比较感兴趣。我看hf上的代码也好像没发现相关内容。

你好, 我想做一个客服机器人。目前的想法是将rerank 模型生成的各个相关的答案文档作为输入,我想先提前问一下 BAAI/AquilaChat2-7B 是否可以帮我实现 将输入处理一下,用自然语言输出? 另外,我还想问一下,除了读原始代码之外,是否有一些文档可以帮助我使用这个模型?比如说各个参数的必要性的使用介绍啥的。 非常感谢您的回复。

我挨个尝试了你们提供的代码,全部都不是这错就是那错,不是这缺失就是那缺失,我严重怀疑你们的东西真的有没有人用得了的,哪怕 1 个人. 最后我尝试只有这个代码能跑,于是并改写了它,结果最后还是掉链子,连问AI,AI都回答不了. 你们能先裸机安装看看确定真的能用能安装好,然后才信心放出来行吗??能靠谱一点,真的让人可用行吗? ![xxx - 副本](https://github.com/user-attachments/assets/0ee1d2ca-75d9-4ce0-b9e6-deac8e2870d9) [1.py.json](https://github.com/user-attachments/files/17799492/1.py.json) ------------------------------------------------- import requests from transformers import AutoTokenizer, AutoModelForCausalLM import torch import time MAX_RETRIES = 500 retry_count = 0 while retry_count <...