ly0303521
ly0303521
`Traceback (most recent call last): File "myExperiment.py", line 11, in aT.extract_features_and_train(data, 1.0, 1.0, aT.shortTermWindow, aT.shortTermStep, "svm", "svmSMtemp", False) File "/home/ly/Projects/pyAudioAnalysis/pyAudioAnalysis/audioTrainTest.py", line 307, in extract_features_and_train compute_beat=compute_beat) File "/home/ly/Projects/pyAudioAnalysis/pyAudioAnalysis/MidTermFeatures.py", line 245, in...
提个建议
我相信你们的技术很强,但是你们的文档实在是太差了,对于初学者根本无法下手。 举个例子,你们的自动压缩ACT,在readme 里面只有量化的选项,我照搬这个例子去运行,可以正常运行,但是如果我需要剪枝呢,该怎么设置,没有例子,没有文档说明,我去看源代码,看到了相关设置,结果还是报错,按照报错提示修改了还是没用。后来发现你们有个文档网站https://paddleslim.readthedocs.io/zh_CN/develop/cv/detection/static/paddledetection_slim_pruing_tutorial.html, 结果根本就没有详细说明和例子,跳来跳去又跳到github上。微软的nni做的很好,跟着例子就能照猫画虎,你们的这个,我摸索了半天了,还是不行
我训练了200个ephch,不知道是不是训练的不够准确率只有251/620,当时你训练了多少个epoch??
你好,我多卡训练的时候会报出这个提示,检查GPU发现,其中一个GPU的显存占用明显更多,这应该不太正常吧,请问知道怎么解决吗 
``` if opt.decoder: print('loading pretrained encoder model from %s' % opt.decoder) encoder.load_state_dict(torch.load(opt.encoder)) ``` 上面这段代码应该是加载decoder, 但其实加载成了encoder,会导致后面测试的时候全是错的
**Describe the issue**:When experient is over, and I didnt open it in bowser at fisrt, so how to check the experiments in browser ?
**borken when ModelSpeedup**: **Ubuntu20**: - NNI version:2.7 - Training service (local|remote|pai|aml|etc):local - Client OS: - Server OS (for remote mode only): - Python version:3.7 - PyTorch/TensorFlow version:PyTorch 1.11.0 - Is...
非常感谢作者,我这边使用您的代码之后,模型性能的确提升了,但是理解代码的时候还是有想不明白的地方。比如418行到420行,420行我知道是直接把传进来的样本当成是新的类中心来做分类,但是前两行就不明白有什么作用了, ran_flag 的范围应该是 0至 9 的整数,(ran_flag > 4)应该是一半的概率,并没有体现 trinlet的思想。 有点不太明白 int ran_flag = caffe_rng_rand() % int(10); if (ran_flag > 4) caffe_copy(K_,(Dtype*)&bottom_data[i],(Dtype*)&m_weight[label_i]);
### OS Platform and Distribution Linux ubuntu20.04, arm64 ubuntu20.04 ### Compiler version aarch64-linux-gnu-gcc 9.4.0 ### Programming Language and version C++ ### Installed using virtualenv? pip? Conda?(if python) _No response_ ###...
**问题描述 / Problem Description** 使用llm对话可以正常拿到结果,使用知识库问答模式没有返回结果,请问是不是每次调用的时候,需要调用向量模型的接口,但是这个接口需要翻墙,但是我的服务器目前无法翻墙