mu0n commited on
Commit
836d861
·
1 Parent(s): 31f962d

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +8 -8
README.md CHANGED
@@ -54,7 +54,7 @@ This model adds the above prohibitions to the CreativeML Open RAIL-M license.<br
54
  The author assumes no responsibility for any problems caused by the use of this model.<br>
55
  Please use this model with understanding.<br>
56
  <br>
57
- このモデルは 「El_Zipang」 (https://huggingface.co/deadman44) をベースにいくつかの調整で作成しました<br>
58
  マージ使用モデルは、OnlyRealisticV28、MUSE_v1、CandyApple_v1.2、El Zipang、です、各モデルの作者に感謝します<br>
59
  This model is based on "El_Zipang" (https://huggingface.co/deadman44) with some adjustments.<br>
60
  The merged models are OnlyRealisticV28, MUSE_v1, CandyApple_v1.2 and El Zipang, thanks to the authors of each model!<br>
@@ -91,9 +91,9 @@ Try the above settings.(For reference prompts, please go to the PNG info in the
91
  [説明] このテストは LCM LORA を組み込んだモデルです[LCM(LORA) 0.5]<br>
92
  その他、epi_Noize-(LORA) などをマイナス適用し生成時のノイズを減じてます<br>
93
  ※FLAT(LORA) をネガティブに入れると精細化しキレイな画像を得られます<br>
94
- ※西洋系モデルを学習元にしたノイズLORAをマイナス適用すると西洋系の顔立ちを薄められました<br>
95
- ※東洋系モデルを学習元にしたノイズLORAをプラス適用すると東洋系の顔立ちを濃くできました<br>
96
- FREEUによるチャンネル分けもマージ時の層別適用に効果的と思います<br>
97
  皆さんの「マージ」の参考になれば幸いです<br>
98
  [Description] This test is a model incorporating LCM LORA [LCM(LORA) 0.5].<br>
99
  Other, epi_Noize-(LORA), etc. are applied to reduce noise during generation.[epi_Noize-(LORA) -1.0]<br>
@@ -106,9 +106,9 @@ I hope this will be helpful for your "merging"!<br>
106
  ※Translated with www.DeepL.com/Translator<br>
107
  <br>
108
  [LCM 考察] rev020 テストを経て得られたもの<br>
109
- LCM (LORA) 全層適用の高速化は-50% になりましたが OUT 層への影響で消えないノイズも残りました<br>
110
  そこで MID 層のみ LCM (LORA) 適用します、高速化は -25% に留まりますがノイズはキレイに消えます<br>
111
- 結果的にこれが最適解かなと思います ※LCM 0.5 適用の場合です、もっと強度を上げればさらに高速化するはずです<br>
112
  (<<NON LCM STEP:16<<rev 020 LCM ALL 層 STEP:6>>LCM MID Layer STEP:12>>)<br>
113
  [LCM Considerations] What we learned from the rev020 test<br>
114
  LCM (LORA) applied to all layers resulted in a -50% speedup, but some noise remained due to the effect on the OUT layer.<br>
@@ -118,9 +118,9 @@ As a result, I think this is the best solution.<br>
118
  (<<NON LCM STEP:16<<rev 020 LCM ALL Layer STEP:6>>LCM MID Layer STEP:12>>)<br>
119
  <br>
120
  [おすすめ] 高効率な LCM 利用法<br>
121
- LCM(LORA) をモデルにマージする場合 BM1280ch (FreeU相当) にすると STEP 設定に余裕が生まれます<br>
122
  今回のテスト版では STEP:10 以上の場合に破綻のない画像を高頻度で得られました<br>
123
- ※BM1280ch1,0,0,0,0,0,0,0,1,1,1,1,1,1,1,1,1,1,1,0,0,0,0,0,0,0<br>
124
  [Recommendation] Efficient LCM usage<br>
125
  When merging LCM(LORA) into a model, set BM1280ch (equivalent to FreeU) to give more leeway for STEP setting.<br>
126
  In this test version, we obtained images with no collapses at a high frequency when STEP:10 or higher was used.<br>
 
54
  The author assumes no responsibility for any problems caused by the use of this model.<br>
55
  Please use this model with understanding.<br>
56
  <br>
57
+ このモデルは 「El Zipang」 (https://huggingface.co/deadman44) をベースにいくつかの調整で作成しました<br>
58
  マージ使用モデルは、OnlyRealisticV28、MUSE_v1、CandyApple_v1.2、El Zipang、です、各モデルの作者に感謝します<br>
59
  This model is based on "El_Zipang" (https://huggingface.co/deadman44) with some adjustments.<br>
60
  The merged models are OnlyRealisticV28, MUSE_v1, CandyApple_v1.2 and El Zipang, thanks to the authors of each model!<br>
 
91
  [説明] このテストは LCM LORA を組み込んだモデルです[LCM(LORA) 0.5]<br>
92
  その他、epi_Noize-(LORA) などをマイナス適用し生成時のノイズを減じてます<br>
93
  ※FLAT(LORA) をネガティブに入れると精細化しキレイな画像を得られます<br>
94
+ ※西洋系モデルを学習元にしたノイズ LORA をマイナス適用すると西洋系の顔立ちを薄められました<br>
95
+ ※東洋系モデルを学習元にしたノイズ LORA をプラス適用すると東洋系の顔立ちを濃くできました<br>
96
+ FreeU によるチャンネル分けもマージ時の層別適用に効果的と思います<br>
97
  皆さんの「マージ」の参考になれば幸いです<br>
98
  [Description] This test is a model incorporating LCM LORA [LCM(LORA) 0.5].<br>
99
  Other, epi_Noize-(LORA), etc. are applied to reduce noise during generation.[epi_Noize-(LORA) -1.0]<br>
 
106
  ※Translated with www.DeepL.com/Translator<br>
107
  <br>
108
  [LCM 考察] rev020 テストを経て得られたもの<br>
109
+ LCM (LORA) 全層適用の高速化は最大 -62% になりましたが OUT 層への影響で消えないノイズも残りました<br>
110
  そこで MID 層のみ LCM (LORA) 適用します、高速化は -25% に留まりますがノイズはキレイに消えます<br>
111
+ 結果的にこれが最適解かなと思います ※LCM 0.5 適用の場合です強度を上げればさらに高速化するはずです<br>
112
  (<<NON LCM STEP:16<<rev 020 LCM ALL 層 STEP:6>>LCM MID Layer STEP:12>>)<br>
113
  [LCM Considerations] What we learned from the rev020 test<br>
114
  LCM (LORA) applied to all layers resulted in a -50% speedup, but some noise remained due to the effect on the OUT layer.<br>
 
118
  (<<NON LCM STEP:16<<rev 020 LCM ALL Layer STEP:6>>LCM MID Layer STEP:12>>)<br>
119
  <br>
120
  [おすすめ] 高効率な LCM 利用法<br>
121
+ LCM(LORA) をモデルにマージする場合 BM1280ch (FreeU 相当) にすると STEP 設定に余裕が生まれます<br>
122
  今回のテスト版では STEP:10 以上の場合に破綻のない画像を高頻度で得られました<br>
123
+ ※BM1280ch = 1,0,0,0,0,0,0,0,1,1,1,1,1,1,1,1,1,1,1,0,0,0,0,0<br>
124
  [Recommendation] Efficient LCM usage<br>
125
  When merging LCM(LORA) into a model, set BM1280ch (equivalent to FreeU) to give more leeway for STEP setting.<br>
126
  In this test version, we obtained images with no collapses at a high frequency when STEP:10 or higher was used.<br>