Datasets:
Update README.md
Browse files
README.md
CHANGED
@@ -125,17 +125,17 @@ pretty_name: genshin_voice_sovits
|
|
125 |
|
126 |
|
127 |
|
128 |
-
|
129 |
|
130 |
-
audio duration
|
131 |
-
epoch:
|
132 |
|
133 |
-
|
134 |
batch_size = 一个step训练的片段数<br>
|
135 |
segments = 音频被切分的片段<br>
|
136 |
step=segments*epoch/batch_size,即模型文件后面数字由来<br>
|
137 |
|
138 |
-
|
139 |
损失函数图像:主要看step 与 loss5,比如:<br>
|
140 |
给一个大致的参考,待转换音频都为高音女生,这是较为刁钻的测试:如图,10min纯净人声,<br>
|
141 |
差不多2800epoch(10000step)就已经出结果了,实际使用的是5571epoch(19500step)的文件,被训练音色和原音色相差几<br>
|
|
|
125 |
|
126 |
|
127 |
|
128 |
+
关键参数:</br>
|
129 |
|
130 |
+
audio duration:训练集总时长</br>
|
131 |
+
epoch: 轮数</br>
|
132 |
|
133 |
+
其余:</br>
|
134 |
batch_size = 一个step训练的片段数<br>
|
135 |
segments = 音频被切分的片段<br>
|
136 |
step=segments*epoch/batch_size,即模型文件后面数字由来<br>
|
137 |
|
138 |
+
以散兵为例:</br>
|
139 |
损失函数图像:主要看step 与 loss5,比如:<br>
|
140 |
给一个大致的参考,待转换音频都为高音女生,这是较为刁钻的测试:如图,10min纯净人声,<br>
|
141 |
差不多2800epoch(10000step)就已经出结果了,实际使用的是5571epoch(19500step)的文件,被训练音色和原音色相差几<br>
|