Victoriaheiheihei
Victoriaheiheihei
你好, 感谢你的工作 我尝试使用你的方法访问chatgpt,在登录之后弹出对话界面的一瞬间关掉代理,但是他当前页面仍然会关掉,并且会重新再次打开验证和登录页面,然后程序就会报错。不知道是我关闭代理的时机不正确,还是怎么回事呢? File "C:\Users\HZY\AppData\Local\Programs\Python\Python39\lib\asyncio\runners.py", line 44, in run return loop.run_until_complete(main) File "C:\Users\HZY\AppData\Local\Programs\Python\Python39\lib\asyncio\base_events.py", line 642, in run_until_complete return future.result() File "C:\Users\HZY\AppData\Local\Programs\Python\Python39\lib\site-packages\revChatGPT\revChatGPT.py", line 390, in get_cf_cookies raise Exception("cf challenge fail") Exception:...
在实际使用中,我发现在领域知识上bge-reranker-large可能会造成由bge-large-zh-v1.5得到的top3的性能下降,但是不知道具体问题出在哪里,使用方法是按照官方说明使用的,如下: ``` import torch from transformers import AutoModelForSequenceClassification, AutoTokenizer, BatchEncoding, PreTrainedTokenizerFast tokenizer = AutoTokenizer.from_pretrained('BAAI/bge-reranker-base') model = AutoModelForSequenceClassification.from_pretrained('BAAI/bge-reranker-base') model.eval() pairs = [['what is panda?', 'hi'], ['what is panda?', 'The giant panda...
你好, 想问下你的sememe_vec 和 sense_dict两个文件都是怎么得到的呢?是先利用hownet获得对应词的sense,再使用SAT获得的吗?那这部分的代码可以公开吗?
二维码过期
你好, 加入讨论群的二维码已经过期,可否重新更新一下呢?
Traceback (most recent call last): File "E:\RetroMAE-master\RetroMAE-master\examples\pretrain\preprocess.py", line 158, in wiki = create_wiki_data(args.tokenizer_name, args.max_seq_length, args.short_seq_prob) File "E:\RetroMAE-master\RetroMAE-master\examples\pretrain\preprocess.py", line 62, in create_wiki_data tokenizer = AutoTokenizer.from_pretrained("F:\bert-base-uncased") File "C:\Users\HZY\AppData\Local\Programs\Python\Python39\lib\site-packages\transformers\models\auto\tokenization_auto.py", line 463, in from_pretrained...
Hellow, Is that the code publiced in [code](https://github.com/staoxiao/RetroMAE/tree/master/examples/retriever/msmarco) is for finetuning the model by dpr? Where can i find the code for finetuning with ANCE? And there's another question that...
你好, 想问下prompt重用是指langchain构建agent时可能会发生prompt重用的情况是吗?如果我只是单独借助langchain+llm+retrieval 实现一个对长文档的检索器,针对这种特定任务场景也比较固定,是不是就不存在prompt重用的情况了? 还想问下langchain内置的prompt在哪里可以查看呢
图谱展示失败
你好, 我执行了https://github.com/qianniucity/llm_notebooks/blob/main/ollama_knowlage_graph/extract_graph.ipynb 这个文件,最后结果输出的是index.html的保存路径, 但是我打开对应的html文件,里面是一个进度条,并没有构建好的知识图谱。 针对该问题,请问有什么排查思路或者可能的原因吗? 我是在服务器上执行的,服务器无法联网,不知道是否是这个原因造成的。