tkgix

Results 14 comments of tkgix

> Make a file in the `stable-diffusion-webui` folder called `user.css` and put this in it. > > ```css > #interrogate_col { > display: none; > } > ``` Oh my...

ドロップアウトによって結果が非常に大きく異なる方です。 設定した確率に応じてキャプションとタグを空で学習させる単純なコードなので、早く適用されるといいと思います。

日本語でよろしいでしょうか。 私は主に画風を学習させています。 全身画像を1024解像度目安に、バケッティングに合ったサイズにして学習させます。 こんなときに顔の表現(特に目)が低下することが多いので、 顔の近くだけ256または512解像度の目安でクロップして一緒にデータセットに入れます。 ( コードからリサイジングをする部分は取り外して使用しています ) これらの方法は、目の部分の学習改善に大いに役立ちます。 できれば一つのデータセットから解像度(ex: 512、768、1024)ごとに分類できるようにした上で、一つのバケットに仕上げるのがベストではないかと思います。 サイズ別にbatchを作る必要性についてはよく分からない部分なので、batchに関することは私が議論する事項ではないようです。 repoが変更されるたびに手動でコードを修正していたので提案してみました。 良い参考になればと思います。

> > 日本語でよろしいでしょうか。 > > 私は主に画風を学習させています。 全身画像を1024解像度目安に、バケッティングに合ったサイズにして学習させます。 こんなときに顔の表現(特に目)が低下することが多いので、 顔の近くだけ256または512解像度の目安でクロップして一緒にデータセットに入れます。 ( コードからリサイジングをする部分は取り外して使用しています ) これらの方法は、目の部分の学習改善に大いに役立ちます。 > > できれば一つのデータセットから解像度(ex: 512、768、1024)ごとに分類できるようにした上で、一つのバケットに仕上げるのがベストではないかと思います。 > > サイズ別にbatchを作る必要性についてはよく分からない部分なので、batchに関することは私が議論する事項ではないようです。 > > repoが変更されるたびに手動でコードを修正していたので提案してみました。 良い参考になればと思います。 > > 失礼します。I have some questions...

It's output directly at high resolution. I used hiresfix before, but I didn't get satisfactory results in the process. (a bit of blurry) so I'm using high-resolution learning and output.

> I would like to confirm, but if I select 512 as the training resolution and the training images contain images of a size larger than that, will the training...

> Thank you for your comment. > > I would like to confirm one more thing, but if a model trained with 512 × 512 images is partially additionally trained...

ご回答ありがとうございます。 最近追加されたnetwork_alphaによって、多くの人が学習に問題を抱えていると思います。 (特にdefault alpha=1はちょっと…) 学習時にalphaを調節するということは、エンドユーザーがスケール(=multiplier)を入力しなくても楽に使用できるようにするという前提としては良いですが、学習させる立場では常にalpha/dimに対して逆算してLRを調節しなければならないという問題があります。 これもまた正比例するものではないので特にそうです。 (例えば、alpha=256、dim=256のときにLRを5e-5で学習したものと、alpha=1 dim=256のときにLRを5e-5*256で学習したものは結果が異なります) LORA学習repoがいろいろありますが、まだalphaを直接safetensorに記載する方法を使うものがあるかどうかはよくわかりません。 実際、最初のLORAの趣旨に合うなら、alphaを記載するのが正しいです。 ただし、現在のところ、各repoごとに形式が変わるのが良い現象なのかは私が判断しにくいので、この部分については私が議論する事項ではないようです。 添言として、alphaのdefaultが1であることは問題の余地があると考えられます。 alpha=dim であることも高いlora_rank (ex: 128, 256~)で問題がありますが、alpha=1 であることも高いlora_rank で問題が生じることは同じです。 (特にalpha=1 dim=256 or 512 のとき、up(down) * scale が小さすぎ、underflow によって特定のweightはSKIPになる現象) おそらく現在共有されているほとんどのLORAがalpha=dimであることも、最初の方式であるscale=1 (alpha=dim)の状態でLR調節に慣れている人が多いからだと思います。やはり私もしばらくの間混乱した後、alpha=dimの状態でLRを調節する方を選んだ人の一人です。...

Thank you for your answer, I think maybe what you understood is correct. I want to apply ControlNet when running t2i or i2i, and then disable ControlNet while running additional...

I looked at the Adetailer. I understood that it was replacing it with another ControlNet parameter, but I couldn't find the Turn Off ControlNet. I tried to implement it similarly,...