HuiwenXue
Results
2
comments of
HuiwenXue
是vllm不接受--llm_device这个参数,去修改flashtts源文件vllm_generator.py的第32行async_args = AsyncEngineArgs(**engine_kwargs)上面加一行代码engine_kwargs.pop("device", None),就可以解决了
> 是vllm不接受--llm_device这个参数,去修改flashtts源文件vllm_generator.py的第32行async_args = AsyncEngineArgs(**engine_kwargs)上面加一行代码engine_kwargs.pop("device", None),就可以解决了 @HuiResearch 作者你好,这个问题是否可以跟进一下,我的vllm版本为0.10.0,torch版本2.7.1