曾彦博
曾彦博
支持的,mixtral 8x7b还有gpt4-1106。不过也许还有其他变量影响这个问题,没法定位问题的具体位置。有空我再看看什么情况。
>  体现在什么地方?有例子么 体现在用包含LaTex的内容去产生QA时,数据集中的\nu \nabla等就会转义。我不知道怎么排查了。似乎光prompt用//没用,因为这只是个引导。
 红色处的换行就是\nu中的\n被换行了
实在有点摸不着头脑,一会好一会坏的。。。之前关于问题的表述应该是有问题的。我看看再继续反馈吧。
似乎与问答拆分有关: 原始文件: [test.txt](https://github.com/labring/FastGPT/files/14019383/test.txt) 直接拆分(没有问题):  问答拆分(有问题,所有\n都变成了换行):  
猜测是因为这一行,准备测试一下。 https://github.com/zenyanbo/FastGPT/blob/253c143a5206b3196f53613f6314af4929f8835f/projects/app/src/service/events/generateQA.ts#L215
 注释了似乎就好了,不知道会不会有啥副作用。
我的办法是修改了正则表达式:/\\n\W/g 另外,对话页面的latex也有问题,我也是用.replace(/\\n\W/g, '\n ')解决的
我把内置提示词去掉了(因为azure模型的知识库日期有问题),所以应该只剩下自己的。另外chatgptweb回复也比fast长,所以我现在很好奇,是什么影响到了输出长度。我准备去你们代码那注释掉max_token,保证所有参数一致再看看
奇怪,难道我这哪有问题。我排查一下