a793181018

Results 7 issues of a793181018

How to build amxmodx project by vs2019 ?I hope Guys can tell me By videos

请问弟兄们,unityET框架如何接入addressable资源系统?

### Environment | Hardware | description | |----------|---------------| | GPU | gfx803 | | CPU | E5-2667v2*2 | | Software | version | |----------|---------| | OS | -deepin | |...

如题,有没有可以支持AMD系列显卡的使用方法

在win11环境下命令行报错如下: 'CUDA_VISIBLE_DEVICES' 不是内部或外部命令,也不是可运行的程序 或批处理文件。 建议在swift\swift\ui\llm_train\llm_train.py的251行添加系统判断来设置CUDA_VISIBLE_DEVICES

Add Csharp Language Support.(but has bugs)

1.deepseek-R1-671B的运行流程 根据我对deepsekk-R1-671B的文档的理解,总结的运行流程 a.prompt首先通过37b的路由模型的推理分析从256个专家模型中选择8个专家模型. b.再由8个专家模型的进行二次推理最后获得推理输出. 2.运行分析 根据1中的运行流程可以得到如下情况推论: 256个专家模型在具体的某次推理中只有8个专家模型和37b的路由模型参与了推理,其他的248个专家模型不参与. 3.运行设计思路 a.将路由模型以张量并行的形式切分到GPU组中,进行并行推理 b.将所有专家模型存放到内存中. c.在推理过程中对所有的专家模型进行使用次数统计形成一个专家模型热度榜(为专家模型的加载调度做依据). d.通过专家模型热度榜,将热度榜名次靠前的专家优先从内存拷贝到显存中(拷贝的专家模型数量,从启动参数中获得,为专家推理的加速推理做铺垫). e.当路由模型选中未在显存中的冷门专家模型时,显存中热度最低的几个专家模型进行踢出(踢出专家模型个数由启动参数获得),将冷门专家模型拷贝到显存中进行推理. f.提供一个json文件格式,让用户填写,常用推理问题,以便快速生成专家模型热度榜,以快速完成专家模型的快速初始化调度(json文件路径由启动参数获得). g.每推理一定的次数,将热度榜进行一次保存(推理次数由启动参数获得) h.为扩大兼容性,可以选择对不同的指令集进行特定兼容,从老指令集逐渐兼容到新指令集