Update README.md
Browse files
README.md
CHANGED
@@ -12,10 +12,12 @@ This is a Japanese sentence-BERT model.
|
|
12 |
|
13 |
日本語用Sentence-BERTモデル(バージョン2)です。
|
14 |
|
15 |
-
[バージョン1](https://huggingface.co/sonoisa/sentence-bert-base-ja-mean-tokens)よりも良いロス関数である[MultipleNegativesRankingLoss](https://www.sbert.net/docs/package_reference/losses.html#multiplenegativesrankingloss)を用いて学習した改良版です。
|
16 |
-
|
17 |
手元の非公開データセットでは、バージョン1よりも1.5ポイントほど精度が高い結果が得られました。
|
18 |
|
|
|
|
|
|
|
19 |
|
20 |
# 旧バージョンの解説
|
21 |
|
|
|
12 |
|
13 |
日本語用Sentence-BERTモデル(バージョン2)です。
|
14 |
|
15 |
+
[バージョン1](https://huggingface.co/sonoisa/sentence-bert-base-ja-mean-tokens)よりも良いロス関数である[MultipleNegativesRankingLoss](https://www.sbert.net/docs/package_reference/losses.html#multiplenegativesrankingloss)を用いて学習した改良版です。
|
|
|
16 |
手元の非公開データセットでは、バージョン1よりも1.5ポイントほど精度が高い結果が得られました。
|
17 |
|
18 |
+
事前学習済みモデルとして[cl-tohoku/bert-base-japanese-v2](https://huggingface.co/cl-tohoku/bert-base-japanese-v2)を利用しました。
|
19 |
+
従って、推論の実行にはfugashiとunidic-liteが必要です。
|
20 |
+
|
21 |
|
22 |
# 旧バージョンの解説
|
23 |
|