ysakuramoto
commited on
Commit
•
81efab8
1
Parent(s):
b90ef8e
Update README.md
Browse files
README.md
CHANGED
@@ -33,6 +33,8 @@ model = MobileBertForSequenceClassification.from_pretrained("ysakuramoto/mobileb
|
|
33 |
|学習時間(s)|585.0|399.7|-|
|
34 |
|推論時間(s)|259.0|108.7|70.5|
|
35 |
|精度|86.4%|85.5%|86.4%|
|
|
|
|
|
36 |
- 条件
|
37 |
- ライブドアニュースコーパスのタイトルとカテゴリで学習・推論。
|
38 |
- 比較対象のBERTモデルは東北大学さんの"cl-tohoku/bert-base-japanese-whole-word-masking"。
|
@@ -48,6 +50,8 @@ model = MobileBertForSequenceClassification.from_pretrained("ysakuramoto/mobileb
|
|
48 |
|学習時間(s)|428.0|294.0|-|
|
49 |
|推論時間(s)|163.5|78.4|40.9|
|
50 |
|精度|86.4%|82.5%|83.3%|
|
|
|
|
|
51 |
- 条件
|
52 |
- ストックマーク社さんのwikipediaデータセットで学習・推論。(https://github.com/stockmarkteam/ner-wikipedia-dataset)
|
53 |
- 比較対象のBERTモデルは東北大学さんの"cl-tohoku/bert-base-japanese-whole-word-masking"。
|
|
|
33 |
|学習時間(s)|585.0|399.7|-|
|
34 |
|推論時間(s)|259.0|108.7|70.5|
|
35 |
|精度|86.4%|85.5%|86.4%|
|
36 |
+
|モデルファイルサイズ(MB)|440.2|-|41.8|
|
37 |
+
|
38 |
- 条件
|
39 |
- ライブドアニュースコーパスのタイトルとカテゴリで学習・推論。
|
40 |
- 比較対象のBERTモデルは東北大学さんの"cl-tohoku/bert-base-japanese-whole-word-masking"。
|
|
|
50 |
|学習時間(s)|428.0|294.0|-|
|
51 |
|推論時間(s)|163.5|78.4|40.9|
|
52 |
|精度|86.4%|82.5%|83.3%|
|
53 |
+
|モデルファイルサイズ(MB)|440.2|-|41.8|
|
54 |
+
|
55 |
- 条件
|
56 |
- ストックマーク社さんのwikipediaデータセットで学習・推論。(https://github.com/stockmarkteam/ner-wikipedia-dataset)
|
57 |
- 比較対象のBERTモデルは東北大学さんの"cl-tohoku/bert-base-japanese-whole-word-masking"。
|