Jack Lau

Results 34 comments of Jack Lau

1. 检查下编译的ffmpeg是否是4-5的版本 2. 检查编译的是否为动态库 以及编译后存储的路径是否在环境中

用的哪个脚本?直播流确认无误没有丢包? 可以先用ffplay验证一下

> > 可以试试这个功能:https://github.com/BabitMF/bmf/tree/master/bmf/test/distributed_node 该功能主要实现了frame级别的分布处理,比较接近你想要的效果,当然了,你可以在你的算法模块中去控制选定cpu的策略。 > > 我试了一下这个例子,但是报错:(python310) [root@localhost build]# ./cpp demo [2025-03-25 14:29:34.488] [info] BMF Version: 0.0.12 [2025-03-25 14:29:34.488] [info] BMF Commit: [2b42a8a](https://github.com/BabitMF/bmf/commit/2b42a8a640ae67cf15c7bf8d8d6c5496e9342520) [2025-03-25 14:29:34.488] [info] start init graph [2025-03-25...

> > > > 可以试试这个功能:https://github.com/BabitMF/bmf/tree/master/bmf/test/distributed_node 该功能主要实现了frame级别的分布处理,比较接近你想要的效果,当然了,你可以在你的算法模块中去控制选定cpu的策略。 > > > > > > > > > 我试了一下这个例子,但是报错:(python310) [root@localhost build]# ./cpp demo [2025-03-25 14:29:34.488] [info] BMF Version: 0.0.12 [2025-03-25 14:29:34.488] [info] BMF...

> > 1. 首先你需要写一个你的超分模块,或者用bmf demo中的enhance模块:https://github.com/BabitMF/bmf/blob/master/bmf/demo/video_enhance/enhance_module.py > > 2. 假如你使用了python模块,结合下面的多进程代码去改造一下原有的bmf模块: > > > > ``` > > import multiprocessing > > import time > > import psutil > > import os...

是环境没配好吗,能给下报错吗,可以试试先用docker容器

由于demo/video_frame_extraction中 jpeg_encoder这个module是基于gpu处理的 如果不想使用gpu处理的话,encoder的实现需要改 或者可以尝试使用bmf原生的 decoder也可以设置为cpu处理 在video_params中删掉下面两行参数 ``` "hwaccel": "cuda", "hwaccel_output_format": "cuda", ```

> > 这个decode可以参考:https://babitmf.github.io/docs/bmf/api/decode_module/ 更详细的介绍和背景原理之类的,可能需要查阅一些有关cuda、ffmpeg的文档来交叉印证。 > > 通过降低线程数,可以降低显存,我理解应该有一个初始化显存池子的地方,在decode的过程中,初始化显存的地方可以告诉一下在哪里吗? https://github.com/BabitMF/bmf/blob/master/bmf/hml/src/cuda/cuda_allocator.cpp

可以先参考一下encode的参数 https://babitmf.github.io/docs/bmf/api/api_in_cpp/encode_module/ 包括可以看一下https://github.com/BabitMF/bmf/tree/master/bmf/demo/broadcaster 这个demo 里面用到了rtsp 看一看有没有需要的 最后看一看encoder代码 如果还是没有相关实现代码 我mark一下 保留issue 后面会考虑添加相关实现