DefTruth
DefTruth
> 能否参考MNN的说明文档那样,https://www.yuque.com/mnn/cn/build_windows 稍微组织下Windows下的部署门槛? 首先感谢您的建议❤️~ 工作日比较忙,周末再搞一下。恐怕很难弄的和MNN这些这么专业。之后会直接放一个在windows10下编译好的动态库出来。暂且先把这个项目看成是许多模型C++推理的工程样例集合吧,你可以抠出与你任务相关的例子来魔改,应该很容易就能用到新任务或新模型上,比如 #50 。或者,你可以先看下上面贴的几个讨论和[中文版文档](https://github.com/DefTruth/lite.ai.toolkit/blob/main/README.zh.md),看看能否先玩起来。
> 你好 有个问题请教 我跑起来了抠图的demo 但是非常非常非常非常慢 20秒的视频 扣一次要15分钟 才能输出最终文件 有可能是哪里不对呢 如果是在CPU跑的话是比较慢的,而且也和视频分辨率相关,分辨率越高速度越慢。CPU达不到实时,你可以下RVM的论文,里面有提到需要GPU才可能实时
> > > 你好 有个问题请教 我跑起来了抠图的demo 但是非常非常非常非常慢 20秒的视频 扣一次要15分钟 才能输出最终文件 有可能是哪里不对呢 > > > > > > 如果是在CPU跑的话是比较慢的,而且也和视频分辨率相关,分辨率越高速度越慢。CPU达不到实时,你可以下RVM的论文,里面有提到需要GPU才可能实时 > > 另外 看到您之前在#10里面的讨论 问题是关于gpu的 最后看到二位讨论到了cuda 意思是我必须使用N卡 才能使用gpu渲染 是嘛 A卡或者核显这些都将是龟速的? 不好意思 刚接触这些...
@hmk2012 你直接用输出的fgr_mat和pha_mat值就好了,pha_mat保存的就是alpha透明度,fgr_mat保存的就是前景。 ```C++ content.pha_mat = pmat; cv::merge(fgr_channel_mats, content.fgr_mat); cv::merge(merge_channel_mats, content.merge_mat); ``` 可以看下我另一个项目里的文档说明: https://github.com/DefTruth/RobustVideoMatting.lite.ai.toolkit
行吧,被大家催得我都良心不安了,我是没想到会有那么多人想用😂已经在安排各个操作系统的prebuilt了,windows、mac和linux的预计会在这两个礼拜放出来,到时可以不用编译直接使用了;android的会稍晚点
> 催更Windows!!催更Windows!!催更Windows!!催更Windows!!催更Windows!!催更Windows!!催更Windows!!催更Windows!!催更Windows!!催更Windows!!催更Windows!!催更Windows!!催更Windows!!催更Windows!!催更Windows!!催更Windows!!催更Windows!!催更Windows!!催更Windows!!催更Windows!!催更Windows!! 很抱歉,手上没有windows的电脑,所以windows的预编译计划不知道会推迟到什么时候,可能等我什么时候有windows电脑的时候吧。可以考虑使用mac和linux的版本。如果确实想用windows版本的话,可以参考: #207 的文档进行配置。
> @DefTruth 社区就不能完成预编译任务吗?快半年了,c++的预编译真的难于上青天吗?能否使用github的workflow自动完成预编译呢?再不行能否求助社区小伙伴帮忙呢? 很抱歉~ 因为这是一个个人业余的开源项目,我并没有从这个开源项目中获取任何的收入来源,所以也不太可能为了这件事花费一笔钱去购买windows的电脑,也不打算在自己的电脑上安装windows虚机。这些c++工程都是我在做算法研究时顺便写下的,我并不是专门做推理引擎或跨平台开发的,只是由于有些热情,所以便整理了一下自己业余写的代码。我主要研究计算机视觉和虚拟人相关的算法,平时的工作压力也很大,所以这个开源项目也只能尽量维护,不可能做到十全十美。不是因为c++的预编译难于上青天,而是因为个人的精力实在有限。所以如果您急需要用到现成的工具和库,我比较推荐您使用比较成熟的mediapipe,tenginekit或MNN/TNN/NCNN本身自带的demo模型。或者您这可以找熟悉推理引擎的同事,编译这个库对他们来说是一件很简单的事。
> 说实话,很敬佩作者的开源精神,现在内卷这么严重,还能抽出精力来维护这个项目,相当不容易了;但是看到大部分人只是想白嫖。那些催更windows的,希望你能理解作者只是业余时间,作者也说了不会为了编译windwos而去购买一台windows电脑,你们等那么久就不能众筹一台windows电脑给作者过去么?😄 !!!天啊!!!感谢小伙伴的理解!!!一起努力卷✋,这个开源项目还是会一直维护,只是个人的精力确实是有限的,很多东西没有办法一步到位哈哈,特定平台兼容就只能留给需要的同学自己去摸索了。
你需要额外编译GPU版本的onnxruntime的GPU版本的库哦,我这没专门测试,代码是不用改的,但链接的库需要改。 * onnxruntime 官方编译的包在这 [onnxruntime-win-gpu-x64-1.8.1.zip](https://github.com/microsoft/onnxruntime/releases/download/v1.8.1/onnxruntime-win-gpu-x64-1.8.1.zip ) 另外,有个小伙伴尝试了GPU下的测试 #9 ,应该是ok的
我这默认的线程数是1,你可以尝试别的线程数。 > > ```c++ > class LITE_EXPORTS YoloX : public BasicOrtHandler > { > public: > explicit YoloX(const std::string &_onnx_path, unsigned int _num_threads = 1) : // 线程数默认为1 > BasicOrtHandler(_onnx_path,...