皮卡丘的猫
皮卡丘的猫
我也遇到了这个问题,请问怎么解决的?
补充一下,我是训练ser模型任务,执行命令是:! python3 -m paddle.distributed.launch --gpus '0' tools/train.py -c configs/kie/vi_layoutxlm/ser_vi_layoutxlm_xfund_zh.yml,也下载了官方文档提供的预训练模型
我是在你们平台上使用的,我提供我的项目编号,你们可以在后台查看我的项目?我是在百度studio的https://aistudio.baidu.com/projectdetail/8221656
那我模型怎么发你呢?很大的,几个G
> PaddleOCR 现在是社区人员在维护,不是百度官方维护了。我们项目管理人员大部分都不是百度的哈,看不到你这项目的。 我在issuse搜了一下,这个问题还是有不少人遇到过的,https://github.com/PaddlePaddle/PaddleOCR/issues/11261 这个issue你们解决了吗?
> 1. 如果你希望在本地运行 qwen1.5-chat,就需要在本地拉起 xinference 服务,并部署好 embedding 模型和语言模型: > > ```batchfile > XINFERENCE_MODEL_SRC=modelscope xinference-local --host 0.0.0.0 --port 9997 # 启动 xinference 服务 > xinference launch --model-name bge-large-zh-v1.5 --model-type embedding --gpu-idx...
> 终于解决了,要在配置文件里修改以下四个地方,网上真的没有类似的教程,一定记录给后面的学习者看看   最开头这里也要gai改成一样的名字啊。。。折磨了好久 你好,请问一下,我也是新手,我也是0.3.1版本,如何配置大模型?我看官网手册是千问的大模型,你能讲一下如何操作吗?还需要启动什么oneapi服务吗?还是说就只在通义千问官网注册个账户,拿到appkey和url填上去就可以了呢?也困扰了我好几天还没解决