bisheng
bisheng copied to clipboard
能否提供一个如何使用VLLM框架已配好的模型后端服务配置CustomLLMChat的详细操作手册呢?
开发者文档中的说明没写得很细,初学者看不懂
vllm部署的openai风格服务,用CustomLLMChat调用 也是400入参错误