GaoXiangYa
GaoXiangYa
This pr adds `cir.ceil` `cir.exp2` `cir.exp` `cir.fabs` `cir.floor` `cir.log` `cir.log10` `cir.log2` `cir.round` `cir.sqrt` lowering to MLIR passes and test files.
### Name and Version ggml_cuda_init: GGML_CUDA_FORCE_MMQ: no ggml_cuda_init: GGML_CUDA_FORCE_CUBLAS: no ggml_cuda_init: found 1 CUDA devices: Device 0: NVIDIA GeForce RTX 3060 Ti, compute capability 8.6, VMM: yes version: 0 (unknown)...
**Bug 描述** chatbox结合ollama api,运行本地模型,第一个问题回答很慢,后面回答速度正常 **重现步骤** 请提供能够让我们重现这个 bug 的步骤: 1. 启动ollama serve 2. 选择的ollama创建的模型 3. 开启对话 4. 第一个对话回答的很慢 **期望结果** 第一个对话回答速度能和后面几个回答速度保持一致。 **实际结果** 第一个对话回答速度很慢,当去掉配置项当中关于latex渲染,markdown渲染等操作时,第一个对话回答速度正常 **桌面端(请填写以下信息):** - 操作系统:Ubuntu22.04 - 应用程序版本:1.10.4 **其他上下文** 在这里提供关于问题的任何其他上下文,例如与其他软件或应用程序的交互等。
按照步骤编译完了gmp, mpfr, mpc之后,在按照命令编译完整版的gcc编译器(本身已经有了loonarch64的glibc了,就没有继续编译),但是编译到libgcc的时候出现: configure error: cannot compute suffix of object files Makefile: 14635 recipe for target 'configure-target-libgcc' failed
在Windows平台上使用ftllm 启动语言模型,最后在cmd中输入stop无法退出出现死锁,在Linux上没有该问题,具体死锁的位置如下图所示: