JinCheng666
JinCheng666
补一个前端报错信息 
@dingqizhou 有解决方案吗?卡了好几天了
develop版本也试了吗?看源码也改不动,还很想用这个功能,没法儿了 ------------------ 原始邮件 ------------------ 发件人: "PaddlePaddle/PaddleX" ***@***.***>; 发送时间: 2022年7月4日(星期一) 中午11:23 ***@***.***>; ***@***.******@***.***>; 主题: Re: [PaddlePaddle/PaddleX] paddlex_restful 启动后,web显示服务器连接成功,但服务器工作区路径为undefined,web无法使用 (Issue #1505) 顶一下,也遇到同样的问题了,各种版本都试了 — Reply to this email directly, view it on GitHub, or unsubscribe....
好的,感谢朋友!今晚就试一下! ---原始邮件--- 发件人: "Minjie ***@***.***> 发送时间: 2022年7月4日(周一) 中午1:15 收件人: ***@***.***>; 抄送: ***@***.******@***.***>; 主题: Re: [PaddlePaddle/PaddleX] paddlex_restful 启动后,web显示服务器连接成功,但服务器工作区路径为undefined,web无法使用 (Issue #1505) develop版本也试了吗?看源码也改不动,还很想用这个功能,没法儿了 … ------------------ 原始邮件 ------------------ 发件人: "PaddlePaddle/PaddleX" @.>; 发送时间: 2022年7月4日(星期一) 中午11:23 @.>;...
地点:郑州 组织:某水利设计院的二级组织 联系:[email protected]
> 千问支持toolChoice,实测没错,版本4.7.1 "toolChoice": true, "functionCall": false, 请问您使用的是哪个千问?是本地部署的千问吗? @worm128
> ```json > "toolChoice": false, > "functionCall": false, > ``` @romejiang 大佬您好,向您请教一下问题。 我用xinference部署了qwen1.5:72b、llama3:70b,使用oneapi接入了fastgpt,聊天和补全都是没问题的,但工具调用一直失败。用同样的大模型,接入dify(选择xinference模式),是可以用工具调用的。 我看您给出了配置文件的示例,"toolChoice": false, "functionCall": false, 按照官方文档对配置文件的描述,您这样配置,大模型会使用提示词模式。我测试了一下效果很差。 我尝试了这几种配置组合,工具调用都没有成功。 "toolChoice": true, "functionCall": true //one-api报错,bad_response_status_code bad response status code 400 (request...
@romejiang 感谢解答。 非openai,将functionCall设置为true,大模型不调用工具,开始胡说八道。我新提了个issue #1596 我这里纯提示词模式,效果确实不行。。。
> debug模式有日志,可以发es分析。不过debug会影响性能 @mxdlzg 请问如何启用debug模式?我看了文档和现有issuses,都没有找到该如何开启debug模式。 我用xinference部署了qwen1.5:72b、llama3:70b,使用oneapi接入了fastgpt,聊天和补全都是没问题的,但工具调用一直失败,所以想看下oneapi接收和发送的请求是什么(fastgpt无法打印请求的具体信息) 相同的本地大模型,接入到dify中,是可以正常使用工具调用的能力。 这个问题卡我很久了,麻烦您有空帮我解答一下,非常感谢。
> 我测试的时候,是用php写的中转达到接入我自己需要的 > > 主要感觉是要构造json响应,仿造其他语言模型返回的样例,然后就可以正常调用,包括计费等 > > 至于构造的里面具体值什么,测试过程中没影响,主要就是返回text  > > 这个是在one api那边测试渠道的时候,one api发送给渠道的json请求数据  > > php接收是 > >  > > 希望这些可以帮到你! @mxdlzg 感谢大佬解答。不知道我这样理解是否正确? oneapi没有debug模式,如果想获取请求详细信息,需要在应用到oneapi,或者oneapi和大模型的中间,加一层自己的应用,才能截获当前请求的具体信息。