Update README.md
Browse files
README.md
CHANGED
@@ -13,7 +13,7 @@ This is a Japanese sentence-BERT model.
|
|
13 |
日本語用Sentence-BERTモデル(バージョン2)です。
|
14 |
|
15 |
[バージョン1](https://huggingface.co/sonoisa/sentence-bert-base-ja-mean-tokens)よりも良いロス関数である[MultipleNegativesRankingLoss](https://www.sbert.net/docs/package_reference/losses.html#multiplenegativesrankingloss)を用いて学習した改良版です。
|
16 |
-
手元の非公開データセットでは、バージョン1よりも1.5ポイントほど精度が高い結果が得られました。
|
17 |
|
18 |
事前学習済みモデルとして[cl-tohoku/bert-base-japanese-v2](https://huggingface.co/cl-tohoku/bert-base-japanese-v2)を利用しました。
|
19 |
従って、推論の実行にはfugashiとunidic-liteが必要です(pip install fugashi unidic-lite)。
|
|
|
13 |
日本語用Sentence-BERTモデル(バージョン2)です。
|
14 |
|
15 |
[バージョン1](https://huggingface.co/sonoisa/sentence-bert-base-ja-mean-tokens)よりも良いロス関数である[MultipleNegativesRankingLoss](https://www.sbert.net/docs/package_reference/losses.html#multiplenegativesrankingloss)を用いて学習した改良版です。
|
16 |
+
手元の非公開データセットでは、バージョン1よりも1.5〜2ポイントほど精度が高い結果が得られました。
|
17 |
|
18 |
事前学習済みモデルとして[cl-tohoku/bert-base-japanese-v2](https://huggingface.co/cl-tohoku/bert-base-japanese-v2)を利用しました。
|
19 |
従って、推論の実行にはfugashiとunidic-liteが必要です(pip install fugashi unidic-lite)。
|