张呵呵

Results 13 comments of 张呵呵

https://arxiv.org/pdf/1702.02098.pdf

直接传个参数就好了呀~ kcws/cc/test_seg的--user_dict_path这个参数

你做到最后一步web server那步,就有分词接口了,只不过是C++的接口。

可以啊,tf.train.Supervisor就是可以实现你想要的效果,原来代码里写得有。

这里用到了很多字典,你指的是哪一个?

你是想说用户自定义词典吧?直接传个参数就好了呀~ kcws/cc/test_seg.cc 的--user_dict_path这个参数

-hs 是指是否启用Hierarchical Softmax,1代表启用,0代表不启用,这里写两次应该是重复了,可以去掉前面那个-hs 0,你可以自己试试0和1的效果!

vllm same error ,Ollama works ```shell vllm --version 0.8.5.post1 ``` ![Image](https://github.com/user-attachments/assets/2250deed-f71b-4419-93a5-77684a5e6d2b)

https://github.com/Microsoft/vscode-python same error,Python language support not work

我的环境是Ubuntu 22.04 & vLLM v0.8.5 & pytorch 2.6.0+cu124 & 4 * H20 96GB 请问应该使用什么启动参数来运行Qwen3-235B-A22B? 我使用默认的 `vllm serve ./Qwen3-235B-A22B --tensor-parallel-size 4` 来运行,会出现OOM的情况(尝试过--gpu-memory-utilization 参数没法解决)。默认参数使用8*H20可以成功运行,总显存消耗440GB。是否意味着4卡H20是没法运行的。