Update model on 2024-08-20 05:53:18
Browse files- README.md +37 -63
- added_tokens.json +0 -0
- config.json +1 -1
- model.safetensors +2 -2
- tokenizer.json +0 -0
- tokenizer_config.json +0 -0
README.md
CHANGED
@@ -9,35 +9,34 @@ tags:
|
|
9 |
- sentence-similarity
|
10 |
- feature-extraction
|
11 |
- generated_from_trainer
|
12 |
-
- dataset_size:
|
13 |
- loss:MultipleNegativesRankingLoss
|
14 |
widget:
|
15 |
-
- source_sentence:
|
16 |
-
on
|
17 |
sentences:
|
18 |
-
-
|
19 |
-
-
|
20 |
-
-
|
21 |
-
- source_sentence:
|
22 |
sentences:
|
23 |
-
-
|
24 |
-
-
|
25 |
-
-
|
26 |
-
- source_sentence:
|
27 |
sentences:
|
28 |
-
-
|
29 |
-
-
|
30 |
-
-
|
31 |
-
- source_sentence:
|
32 |
sentences:
|
33 |
-
-
|
34 |
-
-
|
35 |
-
-
|
36 |
-
- source_sentence:
|
37 |
sentences:
|
38 |
-
-
|
39 |
-
-
|
40 |
-
-
|
41 |
---
|
42 |
|
43 |
# SentenceTransformer based on jhgan/ko-sroberta-multitask
|
@@ -89,9 +88,9 @@ from sentence_transformers import SentenceTransformer
|
|
89 |
model = SentenceTransformer("jh8416/my_ewha_model_2024_1")
|
90 |
# Run inference
|
91 |
sentences = [
|
92 |
-
'
|
93 |
-
'
|
94 |
-
'
|
95 |
]
|
96 |
embeddings = model.encode(sentences)
|
97 |
print(embeddings.shape)
|
@@ -146,19 +145,19 @@ You can finetune this model on your own dataset.
|
|
146 |
#### Unnamed Dataset
|
147 |
|
148 |
|
149 |
-
* Size:
|
150 |
* Columns: <code>sentence_0</code> and <code>sentence_1</code>
|
151 |
* Approximate statistics based on the first 1000 samples:
|
152 |
-
| | sentence_0
|
153 |
-
|
154 |
-
| type | string
|
155 |
-
| details | <ul><li>min: 5 tokens</li><li>mean:
|
156 |
* Samples:
|
157 |
-
| sentence_0
|
158 |
-
|
159 |
-
| <code
|
160 |
-
| <code
|
161 |
-
| <code
|
162 |
* Loss: [<code>MultipleNegativesRankingLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#multiplenegativesrankingloss) with these parameters:
|
163 |
```json
|
164 |
{
|
@@ -293,34 +292,9 @@ You can finetune this model on your own dataset.
|
|
293 |
</details>
|
294 |
|
295 |
### Training Logs
|
296 |
-
| Epoch | Step
|
297 |
-
|
298 |
-
| 0.
|
299 |
-
| 0.0743 | 1000 | 1.3245 |
|
300 |
-
| 0.1115 | 1500 | 1.1784 |
|
301 |
-
| 0.1487 | 2000 | 1.1166 |
|
302 |
-
| 0.1858 | 2500 | 1.075 |
|
303 |
-
| 0.2230 | 3000 | 1.0003 |
|
304 |
-
| 0.2601 | 3500 | 0.9713 |
|
305 |
-
| 0.2973 | 4000 | 0.9125 |
|
306 |
-
| 0.3345 | 4500 | 0.885 |
|
307 |
-
| 0.3716 | 5000 | 0.8991 |
|
308 |
-
| 0.4088 | 5500 | 0.8464 |
|
309 |
-
| 0.4460 | 6000 | 0.8405 |
|
310 |
-
| 0.4831 | 6500 | 0.799 |
|
311 |
-
| 0.5203 | 7000 | 0.772 |
|
312 |
-
| 0.5575 | 7500 | 0.7564 |
|
313 |
-
| 0.5946 | 8000 | 0.7348 |
|
314 |
-
| 0.6318 | 8500 | 0.7289 |
|
315 |
-
| 0.6689 | 9000 | 0.722 |
|
316 |
-
| 0.7061 | 9500 | 0.6702 |
|
317 |
-
| 0.7433 | 10000 | 0.7026 |
|
318 |
-
| 0.7804 | 10500 | 0.6627 |
|
319 |
-
| 0.8176 | 11000 | 0.6392 |
|
320 |
-
| 0.8548 | 11500 | 0.6474 |
|
321 |
-
| 0.8919 | 12000 | 0.6304 |
|
322 |
-
| 0.9291 | 12500 | 0.6092 |
|
323 |
-
| 0.9663 | 13000 | 0.6041 |
|
324 |
|
325 |
|
326 |
### Framework Versions
|
|
|
9 |
- sentence-similarity
|
10 |
- feature-extraction
|
11 |
- generated_from_trainer
|
12 |
+
- dataset_size:9089
|
13 |
- loss:MultipleNegativesRankingLoss
|
14 |
widget:
|
15 |
+
- source_sentence: 현황과 방향을 년 교육과정과 비교하면서 총괄적으로 살펴보는 것을 수업목표로 삼습니다
|
|
|
16 |
sentences:
|
17 |
+
- 탈냉전 이후 나타난 안보의 유형협력안보 포괄안보 인간안보 등을 알아보고 오늘날 핵심이슈로
|
18 |
+
- 시편 유약 제조 시유 실험실습실험 판넬 만들기 완성 차 프로젝트 종료
|
19 |
+
- 자세한 내용은 한글 파일을 참조해주기 바랍니다
|
20 |
+
- source_sentence: 단위로 일본 고전문학을 다룸으로써 일본 언어 문화에 대한 이해를 심화시키는 것을
|
21 |
sentences:
|
22 |
+
- 주요한 내용으로는 데이터 모델ERM 질의 언어SQL 데이터베이스의 설계 데이터베이스의 구현 등이다
|
23 |
+
- 로크 정치적 자유주의 통치론 오리엔테이션 홉스 국가의 인공적 탄생 리바이어던 서설
|
24 |
+
- 장 장 중간고사 takehome exam 캉유웨이 사상 연구 탄쓰퉁 연구 기말고사
|
25 |
+
- source_sentence: 능력있는 리더의 요건은 강의주제 리더십과 팔로워십 Reading Quiet quitting is about
|
26 |
sentences:
|
27 |
+
- 원리와 데이터 통신에 필수적인 프로토콜 계층구조에 대해 익히고 각 계층별 기능을
|
28 |
+
- 팔관회와 연등회 불교 의례의 사회적 역할
|
29 |
+
- 누렸던 것일까 조선시대 여성들이 억압을 받았다면 그 억압의 형태는 어떤 것이었을까
|
30 |
+
- source_sentence: 동역학 역학의 한 분야인 동역학은 질량을 가진 물체 또는 시스템의
|
31 |
sentences:
|
32 |
+
- 최종본 작성 어린이날 과학탐구와 글쓰기 탐구적 과학글쓰기SWH란 탐구적 과학글쓰기를 활용한 과학탐구실험
|
33 |
+
- 연관성 이해하기 이스라엘은 어떻게 광야에서 살아남았을까
|
34 |
+
- 나라 사람이니 추석 연휴 과 식당은 어디에 있나요 과 무슨 일
|
35 |
+
- source_sentence: 건강 악화와 후계 구도 아동영화 아홉 명의 배사공 감상 추석 대체공휴일
|
36 |
sentences:
|
37 |
+
- 자연상태와 사회계약론 리바이어던 장 장 홉스 주권자 리바이어던 장 장 임시공휴일
|
38 |
+
- 이해 PTMES의 이해 테이크 어웨이 스윙 연습 스윙 연습 창립 주년
|
39 |
+
- 발음과 특징비대면 러시아 예술가곡과 대중가곡 연습문제 풀이 림스키코르사코프의 작품적 특징과 동양적
|
40 |
---
|
41 |
|
42 |
# SentenceTransformer based on jhgan/ko-sroberta-multitask
|
|
|
88 |
model = SentenceTransformer("jh8416/my_ewha_model_2024_1")
|
89 |
# Run inference
|
90 |
sentences = [
|
91 |
+
'건강 악화와 후계 구도 아동영화 아홉 명의 배사공 감상 추석 대체공휴일',
|
92 |
+
'자연상���와 사회계약론 리바이어던 장 장 홉스 주권자 리바이어던 장 장 임시공휴일',
|
93 |
+
'발음과 특징비대면 러시아 예술가곡과 대중가곡 연습문제 풀이 림스키코르사코프의 작품적 특징과 동양적',
|
94 |
]
|
95 |
embeddings = model.encode(sentences)
|
96 |
print(embeddings.shape)
|
|
|
145 |
#### Unnamed Dataset
|
146 |
|
147 |
|
148 |
+
* Size: 9,089 training samples
|
149 |
* Columns: <code>sentence_0</code> and <code>sentence_1</code>
|
150 |
* Approximate statistics based on the first 1000 samples:
|
151 |
+
| | sentence_0 | sentence_1 |
|
152 |
+
|:--------|:----------------------------------------------------------------------------------|:----------------------------------------------------------------------------------|
|
153 |
+
| type | string | string |
|
154 |
+
| details | <ul><li>min: 5 tokens</li><li>mean: 24.17 tokens</li><li>max: 81 tokens</li></ul> | <ul><li>min: 4 tokens</li><li>mean: 24.61 tokens</li><li>max: 52 tokens</li></ul> |
|
155 |
* Samples:
|
156 |
+
| sentence_0 | sentence_1 |
|
157 |
+
|:---------------------------------------------------------------|:------------------------------------------------------------|
|
158 |
+
| <code>연휴 통합교육과정 모형 단계 KDB로 이끄는 학습경험의 창안 단계 실습협력적 통합교육과정</code> | <code>그리고 그 기억의 재구성 에르노의 부끄러움 현대사회와 개인의 소외 우엘벡의 투쟁</code> |
|
159 |
+
| <code>연휴 통합교육과정 모형 단계 KDB로 이끄는 학습경험의 창안 단계 실습협력적 통합교육과정</code> | <code>기획 및 검증 지지와 공감을 이끄는 프리젠테이션 스킬사회문제를 해결하며 사회를 위한</code> |
|
160 |
+
| <code>연휴 통합교육과정 모형 단계 KDB로 이끄는 학습경험의 창안 단계 실습협력적 통합교육과정</code> | <code>학생들의 발표와 토론이 수업을 이끄는 주요한 원동력이다</code> |
|
161 |
* Loss: [<code>MultipleNegativesRankingLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#multiplenegativesrankingloss) with these parameters:
|
162 |
```json
|
163 |
{
|
|
|
292 |
</details>
|
293 |
|
294 |
### Training Logs
|
295 |
+
| Epoch | Step | Training Loss |
|
296 |
+
|:------:|:----:|:-------------:|
|
297 |
+
| 0.8787 | 500 | 1.5874 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
298 |
|
299 |
|
300 |
### Framework Versions
|
added_tokens.json
CHANGED
The diff for this file is too large to render.
See raw diff
|
|
config.json
CHANGED
@@ -25,5 +25,5 @@
|
|
25 |
"transformers_version": "4.43.3",
|
26 |
"type_vocab_size": 1,
|
27 |
"use_cache": true,
|
28 |
-
"vocab_size":
|
29 |
}
|
|
|
25 |
"transformers_version": "4.43.3",
|
26 |
"type_vocab_size": 1,
|
27 |
"use_cache": true,
|
28 |
+
"vocab_size": 32020
|
29 |
}
|
model.safetensors
CHANGED
@@ -1,3 +1,3 @@
|
|
1 |
version https://git-lfs.github.com/spec/v1
|
2 |
-
oid sha256:
|
3 |
-
size
|
|
|
1 |
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:a306251e23784ebf92d64672fd175343230733c17da1caad8a1c969084bafb12
|
3 |
+
size 442556256
|
tokenizer.json
CHANGED
The diff for this file is too large to render.
See raw diff
|
|
tokenizer_config.json
CHANGED
The diff for this file is too large to render.
See raw diff
|
|