听雨

Results 12 comments of 听雨

我用V也不行的,用放大就可以 U,兄弟解决了吗?

> 好的,感谢!!!我试试哈

我和同样的问题,也是这个提示,兄弟你最后咋解决的啊?

这个情况,不是一直出现,是偶尔出错的,哎头大了

哦哦 我用 try 处理了  ------------------ 原始邮件 ------------------ 发件人: ***@***.***>; 发送时间: 2023年8月8日(星期二) 上午10:54 收件人: ***@***.***>; 抄送: ***@***.***>; ***@***.***>; 主题: Re: [yokonsan/midjourney-api] 🐛 释放队列报错 (Issue #76) 没解决,看了docker的日志,每次回调释放 /v1/api/trigger/queue/release 会出现两次, 因为第一次已经是释放成功了,第二次释放就自然失败了,已经释放过了。 — Reply to this...

这个输出的格式能改一个和chatGPT那种的吗,想统一一下输出

> 作者大大为啥不直接提供呢,我这种不是写python的人写得好痛苦 /(ㄒoㄒ)/~~ > > api.py > > ``` > from fastapi import FastAPI, Request > from fastapi.responses import StreamingResponse > #from transformers import AutoTokenizer, AutoModel > from transformers import...

![1696755594978](https://github.com/baichuan-inc/Baichuan-13B/assets/20808760/9825766f-adb2-4385-8022-f19ac4409640) ### **老大,能否把代码改成像这种格式输出的,谢谢你了!!**

> 请问你是怎么实现流式输出API调用的呢,能否分享一下,万分感谢! ### **你们有API调用的demo没,能分享下吧,多谢!!**

搞出来了没? 我现在网上找的调用例子,提示出错。 `import uvicorn from fastapi import FastAPI from pydantic import BaseModel import uvicorn, json, datetime import torch import os from transformers import AutoModelForCausalLM, AutoTokenizer from transformers.generation.utils import GenerationConfig os.environ['CUDA_VISIBLE_DEVICES']...