hynnn
hynnn
想要使用Spark并发执行识别任务,因为数据量很大 但因为对Spark的/home/文件没有权限,而python3.7/site-packages/paddle/dataset中common.py有创建文件夹  于是,我修改了创建位置,但是出现的新问题  想问一下各位做过部署到Spark上的是需要做什么修改吗?
因为需要api,Online Serving,就看下vllm,发现支持XLMRobertaModel,用它加载bge-m3模型 vllm代码 ``` from vllm import LLM prompts = ['精通excel', '银行项目', '市场营销'] model = LLM( model="/bge/bge-m3", task="embed", enforce_eager=True, ) outputs = model.embed(prompts) for prompt, output in zip(prompts, outputs): embeds...