Dogvane Huang
Dogvane Huang
在 linux(ubuntu) .net core 2.2 版本下,Face接口调用操作超时。 代码在window下正常。 网络访问正常,token能正常获得并输出。 单独wget api 地址,正常。 猜测,设置的某些入参会导致在linux下被卡到超时。 Token:24.2bea30dc9420de9075bfb5203d0f7615.2592000.1566562949.282335-16797556 System.Net.WebException: The operation has timed out. at System.Net.HttpWebRequest.GetResponse() at Baidu.Aip.AipServiceBase.SendRequetRaw(AipHttpRequest aipRequest) in /home/ubuntu/apps/code-server1.939-vsc1.33.1-linux-x64/dotnet/BilibiliAI/AipSdk/Baidu/Aip/AipServiceBase.cs:line 148 Baidu.Aip.AipException: The operation...
### Feature request / 功能建议 lora训练文档里关于训练数据结构里,写的是 conversations,实际代码里用 message,也一并把这部分文档改一下。
### 分支 main 分支 (mmpretrain 版本) ### 描述该错误 从网上找到教程的微调样例,然后只修改了自定义图片路径,运行训练时,出现了以下错误: ··· load_ext mmcv._ext Traceback (most recent call last): File "O:\mmlab\mmpretrain\tools\train.py", line 162, in main() File "O:\mmlab\mmpretrain\tools\train.py", line 151, in main runner...
看了以下代码,是 Pipeline 类里的 std::unique_ptr mapped_file; 设置到成员变量后,会一直持有模型权重文件。 在CPU模式下,这样做没啥问题,但用gpu做后台运行的,还是很希望能把这部分资源给释放了。
百度网盘或者其他网盘?
1. 修改模型加载代码,适配新的模型文件名。
### Background & Description 经过测试,默认模板是无法作用应用于 Qwen1.5 模型里的,会出现结果混乱。 在增加自定义模板后,可以正常输出结果。 现在的想法是,类似常见的模型的问答模板,要怎样整合到 LLamaSharp 基础项目里。 using var model = LLamaWeights.LoadFromFile(parameters); using var context = model.CreateContext(parameters); var ex = new InteractiveExecutor(context); ChatSession session = new...
🐞 Bug Description When using TorchSharp's Module system with inheritance, if a derived class overrides a submodule (e.g., replaces a Sequential defined in the base class), calling RegisterComponents() again in...