nihui

Results 477 comments of nihui

支持部署 内存占用取决于具体的硬件型号,具体的模型,需要你补充下

已确认 pnnx 在折叠常量过程中没有考虑 slice tensor 的情形

Hi, please provide the problematic model files (param and bin) You can also extract the intermediate blobs and observe which operator caused the NaN result

请提供ncnn模型的 param 内容

``` torch.unbind op_3 1 3 4 5 6 7 dim=0 ``` 这里的输出 5 没有使用到?

关闭exception能减小二进制体积

> > 关闭exception能减小二进制体积 > > 好的,性能没有影响吧? 建议跑模型实际测试下 ncnn编译时可以通过 cmake `-DNCNN_DISABLE_RTTI=OFF -DNCNN_DISABLE_EXCEPTION=OFF` 控制是否开启 rtti/exception

yolov8 激活层使用 relu / leakyrelu 会变快些,swish 无法量化,退回fp16计算导致更大的 overhead

> > > > NCNN的GPU推理是基于vulkan的,可能是你的P40的驱动不支持vulkan导致 可以通过vulkaninfo命令查看vulkan识别到的设备 > > > > > > > > > vulkaninfo 也只能看到一个GPU,那这样的话是不是无解了 > > > ================= VK_LAYER_NV_optimus (NVIDIA Optimus layer) Vulkan version 1.3.277, layer version...

```python import torch import torch.nn as nn import torch.nn.functional as F import pnnx class Model(nn.Module): def __init__(self): super(Model, self).__init__() self.rnn = nn.RNN(input_size=256, hidden_size=256, num_layers=30) self.lstm = nn.LSTM(input_size=256, hidden_size=256, num_layers=30) self.gru...