Update README.md
Browse files
README.md
CHANGED
@@ -54,7 +54,7 @@ This model adds the above prohibitions to the CreativeML Open RAIL-M license.<br
|
|
54 |
The author assumes no responsibility for any problems caused by the use of this model.<br>
|
55 |
Please use this model with understanding.<br>
|
56 |
<br>
|
57 |
-
このモデルは 「
|
58 |
マージ使用モデルは、OnlyRealisticV28、MUSE_v1、CandyApple_v1.2、El Zipang、です、各モデルの作者に感謝します<br>
|
59 |
This model is based on "El_Zipang" (https://huggingface.co/deadman44) with some adjustments.<br>
|
60 |
The merged models are OnlyRealisticV28, MUSE_v1, CandyApple_v1.2 and El Zipang, thanks to the authors of each model!<br>
|
@@ -91,9 +91,9 @@ Try the above settings.(For reference prompts, please go to the PNG info in the
|
|
91 |
[説明] このテストは LCM LORA を組み込んだモデルです[LCM(LORA) 0.5]<br>
|
92 |
その他、epi_Noize-(LORA) などをマイナス適用し生成時のノイズを減じてます<br>
|
93 |
※FLAT(LORA) をネガティブに入れると精細化しキレイな画像を得られます<br>
|
94 |
-
※西洋系モデルを学習元にしたノイズLORAをマイナス適用すると西洋系の顔立ちを薄められました<br>
|
95 |
-
※東洋系モデルを学習元にしたノイズLORAをプラス適用すると東洋系の顔立ちを濃くできました<br>
|
96 |
-
※
|
97 |
皆さんの「マージ」の参考になれば幸いです<br>
|
98 |
[Description] This test is a model incorporating LCM LORA [LCM(LORA) 0.5].<br>
|
99 |
Other, epi_Noize-(LORA), etc. are applied to reduce noise during generation.[epi_Noize-(LORA) -1.0]<br>
|
@@ -106,9 +106,9 @@ I hope this will be helpful for your "merging"!<br>
|
|
106 |
※Translated with www.DeepL.com/Translator<br>
|
107 |
<br>
|
108 |
[LCM 考察] rev020 テストを経て得られたもの<br>
|
109 |
-
LCM (LORA)
|
110 |
そこで MID 層のみ LCM (LORA) 適用します、高速化は -25% に留まりますがノイズはキレイに消えます<br>
|
111 |
-
結果的にこれが最適解かなと思います ※LCM 0.5
|
112 |
(<<NON LCM STEP:16<<rev 020 LCM ALL 層 STEP:6>>LCM MID Layer STEP:12>>)<br>
|
113 |
[LCM Considerations] What we learned from the rev020 test<br>
|
114 |
LCM (LORA) applied to all layers resulted in a -50% speedup, but some noise remained due to the effect on the OUT layer.<br>
|
@@ -118,9 +118,9 @@ As a result, I think this is the best solution.<br>
|
|
118 |
(<<NON LCM STEP:16<<rev 020 LCM ALL Layer STEP:6>>LCM MID Layer STEP:12>>)<br>
|
119 |
<br>
|
120 |
[おすすめ] 高効率な LCM 利用法<br>
|
121 |
-
LCM(LORA) をモデルにマージする場合 BM1280ch (FreeU相当) にすると STEP 設定に余裕が生まれます<br>
|
122 |
今回のテスト版では STEP:10 以上の場合に破綻のない画像を高頻度で得られました<br>
|
123 |
-
※BM1280ch
|
124 |
[Recommendation] Efficient LCM usage<br>
|
125 |
When merging LCM(LORA) into a model, set BM1280ch (equivalent to FreeU) to give more leeway for STEP setting.<br>
|
126 |
In this test version, we obtained images with no collapses at a high frequency when STEP:10 or higher was used.<br>
|
|
|
54 |
The author assumes no responsibility for any problems caused by the use of this model.<br>
|
55 |
Please use this model with understanding.<br>
|
56 |
<br>
|
57 |
+
このモデルは 「El Zipang」 (https://huggingface.co/deadman44) をベースにいくつかの調整で作成しました<br>
|
58 |
マージ使用モデルは、OnlyRealisticV28、MUSE_v1、CandyApple_v1.2、El Zipang、です、各モデルの作者に感謝します<br>
|
59 |
This model is based on "El_Zipang" (https://huggingface.co/deadman44) with some adjustments.<br>
|
60 |
The merged models are OnlyRealisticV28, MUSE_v1, CandyApple_v1.2 and El Zipang, thanks to the authors of each model!<br>
|
|
|
91 |
[説明] このテストは LCM LORA を組み込んだモデルです[LCM(LORA) 0.5]<br>
|
92 |
その他、epi_Noize-(LORA) などをマイナス適用し生成時のノイズを減じてます<br>
|
93 |
※FLAT(LORA) をネガティブに入れると精細化しキレイな画像を得られます<br>
|
94 |
+
※西洋系モデルを学習元にしたノイズ LORA をマイナス適用すると西洋系の顔立ちを薄められました<br>
|
95 |
+
※東洋系モデルを学習元にしたノイズ LORA をプラス適用すると東洋系の顔立ちを濃くできました<br>
|
96 |
+
※FreeU によるチャンネル分けもマージ時の層別適用に効果的と思います<br>
|
97 |
皆さんの「マージ」の参考になれば幸いです<br>
|
98 |
[Description] This test is a model incorporating LCM LORA [LCM(LORA) 0.5].<br>
|
99 |
Other, epi_Noize-(LORA), etc. are applied to reduce noise during generation.[epi_Noize-(LORA) -1.0]<br>
|
|
|
106 |
※Translated with www.DeepL.com/Translator<br>
|
107 |
<br>
|
108 |
[LCM 考察] rev020 テストを経て得られたもの<br>
|
109 |
+
LCM (LORA) 全層適用の高速化は最大 -62% になりましたが OUT 層への影響で消えないノイズも残りました<br>
|
110 |
そこで MID 層のみ LCM (LORA) 適用します、高速化は -25% に留まりますがノイズはキレイに消えます<br>
|
111 |
+
結果的にこれが最適解かなと思います ※LCM 0.5 適用の場合です強度を上げればさらに高速化するはずです<br>
|
112 |
(<<NON LCM STEP:16<<rev 020 LCM ALL 層 STEP:6>>LCM MID Layer STEP:12>>)<br>
|
113 |
[LCM Considerations] What we learned from the rev020 test<br>
|
114 |
LCM (LORA) applied to all layers resulted in a -50% speedup, but some noise remained due to the effect on the OUT layer.<br>
|
|
|
118 |
(<<NON LCM STEP:16<<rev 020 LCM ALL Layer STEP:6>>LCM MID Layer STEP:12>>)<br>
|
119 |
<br>
|
120 |
[おすすめ] 高効率な LCM 利用法<br>
|
121 |
+
LCM(LORA) をモデルにマージする場合 BM1280ch (FreeU 相当) にすると STEP 設定に余裕が生まれます<br>
|
122 |
今回のテスト版では STEP:10 以上の場合に破綻のない画像を高頻度で得られました<br>
|
123 |
+
※BM1280ch = 1,0,0,0,0,0,0,0,1,1,1,1,1,1,1,1,1,1,1,0,0,0,0,0<br>
|
124 |
[Recommendation] Efficient LCM usage<br>
|
125 |
When merging LCM(LORA) into a model, set BM1280ch (equivalent to FreeU) to give more leeway for STEP setting.<br>
|
126 |
In this test version, we obtained images with no collapses at a high frequency when STEP:10 or higher was used.<br>
|