hayyaw

Results 4 comments of hayyaw

test command: ./test-backend-ops perf -o MUL_MAT case: MUL_MAT(type_a=f16,type_b=f32,m=2048,n=67,k=2048,bs=[1,1],nr=[1,1]) ggml_vec_dot_f16 performance: 6 runs - 34869.83 us/run - 1647128 kB/run - 45.05 GB/s then compile with ARM_FEATURE_FP16_VECTOR_ARITHMETIC, performance becomes slower as followings:...

感谢解答,已经解决了,还有个问题想请教下,矩阵乘优化分块部分,根据L1D Cache的大小结合mr和nr计算出Kr,Kr=L1D/(mr+nr),L1D=32KB,mr+nr=20,最后怎么算出Kr=256?

> 已经可以创建设备了,AndroidManifest.xml中加上: ` ` 但是,模型推理依然报错,如下图所示,是因为有不支持的算子么: > > ![Image](https://github.com/user-attachments/assets/4e2ec4af-8360-4463-81e4-679ca114fcb1) 请问具体用的什么执行命令呀?

> 1. 目前 qnn 后端不支持运行 llm > 2. qnn 后端目前在 app 中的使用确实可能存在问题,后续会修正 @jxt1234 请问qnn现在支持哪些模型测试呢?mnn模型如何量化才能保证qnn后端支持呢