Starlento

Results 19 comments of Starlento

Here is the GPU info for the second problem: ``` shell Wed Feb 1 04:48:14 2023 +-----------------------------------------------------------------------------+ | NVIDIA-SMI 515.65.01 Driver Version: 515.65.01 CUDA Version: 11.7 | |-------------------------------+----------------------+----------------------+ | GPU...

I have the issue as well. It is recommended to create a new conda environment. You can find that the requirements are cu121 now in README and requirements.txt. After strictly...

Check whether you have `model_base_caption_capfilt_large.pth` in your `models/BLIP` dir. It should be 854 MB. I guess you lost internet connection when downloading this resource.

One thing just as a note. OneFlow does not support Windows currently. And for WSL2, it is not completely supported. https://github.com/Oneflow-Inc/oneflow/issues/9398

> why your model select list is so small In previous version, the settings is in full page, I do not have issue with that. You can see that other...

> When I'm using Hi-res and the Hi-res upscale value is not precisely 1.5, 1.75, 2.0, etc... I'm getting this: `RuntimeError: Sizes of tensors must match except in dimension 1....

> 日本語でよろしいでしょうか。 > > 私は主に画風を学習させています。 全身画像を1024解像度目安に、バケッティングに合ったサイズにして学習させます。 こんなときに顔の表現(特に目)が低下することが多いので、 顔の近くだけ256または512解像度の目安でクロップして一緒にデータセットに入れます。 ( コードからリサイジングをする部分は取り外して使用しています ) これらの方法は、目の部分の学習改善に大いに役立ちます。 > > できれば一つのデータセットから解像度(ex: 512、768、1024)ごとに分類できるようにした上で、一つのバケットに仕上げるのがベストではないかと思います。 > > サイズ別にbatchを作る必要性についてはよく分からない部分なので、batchに関することは私が議論する事項ではないようです。 > > repoが変更されるたびに手動でコードを修正していたので提案してみました。 良い参考になればと思います。 失礼します。I have some questions related to style...

> > > 日本語でよろしいでしょうか。 > > > 私は主に画風を学習させています。 全身画像を1024解像度目安に、バケッティングに合ったサイズにして学習させます。 こんなときに顔の表現(特に目)が低下することが多いので、 顔の近くだけ256または512解像度の目安でクロップして一緒にデータセットに入れます。 ( コードからリサイジングをする部分は取り外して使用しています ) これらの方法は、目の部分の学習改善に大いに役立ちます。 > > > できれば一つのデータセットから解像度(ex: 512、768、1024)ごとに分類できるようにした上で、一つのバケットに仕上げるのがベストではないかと思います。 > > > サイズ別にbatchを作る必要性についてはよく分からない部分なので、batchに関することは私が議論する事項ではないようです。 > > > repoが変更されるたびに手動でコードを修正していたので提案してみました。 良い参考になればと思います。 >...

I have a silly question, sorry to ask here. For the hidden_states, I want to convert (batch_size, num_image_patches, embedding_dim) to (batch_size, h, w, embedding_dim) for segmentation tasks. But I found...

> Hi @Starlento great question! This is because DINOv2 (and vision transformers in general) typically also add a special CLS token before the sequence of image patches. Hence the sequence...