Wang

Results 5 issues of Wang

我现在用您的mobilenet+ssd网络训练,只修改num_classes,也有loss在8附近震荡这个情况,不知道是什么问题。

我用RetinaFace(包括在你的框架下构建的其他检测器)在不带landmark自己的数据集上训练的模型(训练size 512 x 512),发现512的测试size会发生严重的检测框偏移(都是向左下),原图测试无偏移且结果正常。但带landmark的WIDER FACE数据集训练的模型基本没有偏移,而且做landmark和不做landmark的相同检测器均存在偏移。 请问下我是哪个环节出错了,在读取label时,默认所有的gt框landmark值为-1,类别label为1,这样处理对吗。

**Describe the bug** 执行 `python transcribe.py -l chinese ../../../faster-whisper/1.wav --paraformer` 结果正常 但执行 `python transcribe.py -l chinese ../../../faster-whisper/1.wav --paraformer -t` 结果报错 具体过程如图,增加 -t 导致报错了 ![image](https://github.com/wenet-e2e/wenet/assets/32231771/fd8e6e4e-f5a7-4e1a-958c-4df52c5e5bca)

多卡设备运行 **[Quick Start Code](https://github.com/X-PLUG/mPLUG-Owl/tree/main/mPLUG-Owl2#quick-start-code)** 时报错,修改 device 设置单卡可以。但是单卡显存太小(T4卡),只能 8bit 或者 4bit ,请问怎么可以调整成多卡且默认float16运行吗?

在T4卡上运行,显存占用约10G,推理耗时约25秒/次,和sharegpt-13b的速度差异非常大(推理速度约2秒/次),不知道是哪里使用有问题? 同时发现在模型加载过程中有关于 auto_gptq 的告警,auto_gptq 安装的版本是 0.7.0,告警信息如下: ``` CUDA extension not installed. CUDA extension not installed. WARNING - Exllamav2 kernel is not installed, reset disable_exllamav2 to True. This may because you...