automan

Results 7 comments of automan

> video在读取时会保证采样帧数大于temporal_factor 例如hf逻辑中的 https://github.com/huggingface/transformers/blob/e2e8dbed13c6a8455fd85c15c9fa91c99d609010/src/transformers/models/qwen3_vl/video_processing_qwen3_vl.py#L170 (min_frames = 4 > 2) > > 所以没有必要在preprocess时添加冗余check,另外“将图片作为单帧视频传给qwen3vl_video_processor处理”,其实图片的话直接走image processor就好了,两个几乎是一样的 sample这里如果num_frames改成1了,就会出现这个问题。😂 对。按理说两者应该是一样的。resize之后后边的几行就做了冗余check,但是smart_resize这里不做,不太理解~ 其实做了应该不会影响功能。

https://github.com/huggingface/transformers/blob/e2e8dbed13c6a8455fd85c15c9fa91c99d609010/src/transformers/models/qwen3_vl/video_processing_qwen3_vl.py#L236 这里的check是不是没有参考image_processor中的进行处理? 我看几个月前有一个transformers的pr解决了temporal_patch_size不为2的时候,时序上padding的问题。https://github.com/huggingface/transformers/pull/38076/files

> 没太理解你的意思,这里的sanity check的位置对于video/image是一样的,只是video会多一个sample frames; > > 另外,`resize之后后边的几行就做了冗余check,但是smart_resize这里不做,不太理解~ 其实做了应该不会影响功能。`, smart reisze是在_preprocess的时候做的,因为这是两个逻辑,视频采样 and 采样后的预处理 嗨,感谢你的耐心回复~ 🫡 具体来说,我想让下边两段代码可以跑起来: 1. num_frames < temporal_patch_size: ```python import numpy as np from transformers import AutoProcessor model_path =...

> 默认会走操作系统的网络代理,对 python 不太熟悉,没找到相关配置项,有办法改变这个行为吗? 直接改我标出来的这一行就行。requests加个proxy。

或者请问要增加internvl8b这种小规模的模型的并发输入,有什么其他办法不?😢

`lmdeploy check_env` > sys.platform: linux > Python: 3.11.7 (main, Dec 15 2023, 18:12:31) [GCC 11.2.0] > CUDA available: True > MUSA available: False > numpy_random_seed: 2147483648 > GPU 0,1,2: NVIDIA...

用 AutoModelForImageTextToText 即可。可以给他们提个pr😂