romejiang

Results 9 comments of romejiang

toolChoice 和 functionCall 能力目前只有chatgpt有,其他模型不确定有这两个功能,可以吧这两个参数禁止,fastgpt会使用提示词的方式实现工具调用或分类等模块功能。 ``` "toolChoice": false, "functionCall": false, ```

> 在配置文件里把人脸识别关掉,locations_model=空,像这样: ``` [face] locations_model= ```

> 大佬,我用极空间新Z4安装这个docker,始终都会出现Illegal instruction (core [dumped)这个问题,我的挂载方式 是以下两种,最后出现的问题都是一样的,而且我已经重新修改了mdc.ini文件,不知道是什么问题。其中UID和GID是询问客服,默认的是0,UMASK是按照您的方法查阅的文件掩码。我用了lastest和6.2.2-r1两个版本,问题都相同,还请解惑。 > > * [ > ![SharedScreenshot](https://user-images.githubusercontent.com/97221178/181680339-058e9fd4-f0a8-4cd2-9c61-c8471066cc28.jpg) > * ] > * [ > ![2](https://user-images.githubusercontent.com/97221178/181681145-2281f48b-91ab-4886-bf99-314f288d80b0.jpg) > * ] > * [ > ![1](https://user-images.githubusercontent.com/97221178/181680684-67781696-4b99-4e4f-afd4-02252d2acd7c.jpg) > ]...

工具调用除了chatgpt以外需要 配置以下参数。 ```json "toolChoice": false, "functionCall": false, "defaultConfig": { "temperature": 0.5, "max_tokens": 2048 } ``` 我测试过的模型: Nvidia: meta/llama3-70b-instruct // 工具调用可以 deepseek: deepseek-chat // 工具调用不行, deepseek-coder // 工具调用可以,速度快,便宜,推荐

```json "toolChoice": false, "functionCall": false, ``` 这个选项非 openai 的接口必须设成false。所以除了openai以外,用其他LLM的API驱动工具调用,必须是“提示词模式”的。 至于效果,你可以调整系统提示词,然后就是换模型。我用的 llama3-70b-instruct 和 deepseek-coder 基本能满足我的要求。

你可以在工具调用的提示词里写: ``` 请不要返回思考或分析的过程,只返回结果。 ``` 或者 ``` 不要输出 TOOL_RESPONSE。 ``` 工具调用的提示词是内置提示词的补充,你可以试着完善它。如果还不行,就换个模型。 还有一点,容易配错,变量需要你设置到api接口里。 ![1716651447080](https://github.com/labring/FastGPT/assets/1053325/e5bcdcb4-9566-46fe-af7c-f30b0b824c1b)

> 更新xinference到0.12.3,仍然出现这个问题 将这两个参数改成false config.json ```yaml "toolChoice": false, "functionCall": false, ```

工具调用默认把调用接口和LLM对话强制合并在一起的逻辑,确实不利于新用户理解这个工具的使用。