---
base_model: jhgan/ko-sroberta-multitask
datasets: []
language: []
library_name: sentence-transformers
pipeline_tag: sentence-similarity
tags:
- sentence-transformers
- sentence-similarity
- feature-extraction
- generated_from_trainer
- dataset_size:9089
- loss:MultipleNegativesRankingLoss
widget:
- source_sentence: 현황과 방향을 년 교육과정과 비교하면서 총괄적으로 살펴보는 것을 수업목표로 삼습니다
sentences:
- 탈냉전 이후 나타난 안보의 유형협력안보 포괄안보 인간안보 등을 알아보고 오늘날 핵심이슈로
- 시편 유약 제조 시유 실험실습실험 판넬 만들기 완성 차 프로젝트 종료
- 자세한 내용은 한글 파일을 참조해주기 바랍니다
- source_sentence: 단위로 일본 고전문학을 다룸으로써 일본 언어 문화에 대한 이해를 심화시키는 것을
sentences:
- 주요한 내용으로는 데이터 모델ERM 질의 언어SQL 데이터베이스의 설계 데이터베이스의 구현 등이다
- 로크 정치적 자유주의 통치론 오리엔테이션 홉스 국가의 인공적 탄생 리바이어던 서설
- 장 장 중간고사 takehome exam 캉유웨이 사상 연구 탄쓰퉁 연구 기말고사
- source_sentence: 능력있는 리더의 요건은 강의주제 리더십과 팔로워십 Reading Quiet quitting is about
sentences:
- 원리와 데이터 통신에 필수적인 프로토콜 계층구조에 대해 익히고 각 계층별 기능을
- 팔관회와 연등회 불교 의례의 사회적 역할
- 누렸던 것일까 조선시대 여성들이 억압을 받았다면 그 억압의 형태는 어떤 것이었을까
- source_sentence: 동역학 역학의 한 분야인 동역학은 질량을 가진 물체 또는 시스템의
sentences:
- 최종본 작성 어린이날 과학탐구와 글쓰기 탐구적 과학글쓰기SWH란 탐구적 과학글쓰기를 활용한 과학탐구실험
- 연관성 이해하기 이스라엘은 어떻게 광야에서 살아남았을까
- 나라 사람이니 추석 연휴 과 식당은 어디에 있나요 과 무슨 일
- source_sentence: 건강 악화와 후계 구도 아동영화 아홉 명의 배사공 감상 추석 대체공휴일
sentences:
- 자연상태와 사회계약론 리바이어던 장 장 홉스 주권자 리바이어던 장 장 임시공휴일
- 이해 PTMES의 이해 테이크 어웨이 스윙 연습 스윙 연습 창립 주년
- 발음과 특징비대면 러시아 예술가곡과 대중가곡 연습문제 풀이 림스키코르사코프의 작품적 특징과 동양적
---
# SentenceTransformer based on jhgan/ko-sroberta-multitask
This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [jhgan/ko-sroberta-multitask](https://huggingface.co/jhgan/ko-sroberta-multitask). It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
## Model Details
### Model Description
- **Model Type:** Sentence Transformer
- **Base model:** [jhgan/ko-sroberta-multitask](https://huggingface.co/jhgan/ko-sroberta-multitask)
- **Maximum Sequence Length:** 128 tokens
- **Output Dimensionality:** 768 tokens
- **Similarity Function:** Cosine Similarity
### Model Sources
- **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
- **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
- **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
### Full Model Architecture
```
SentenceTransformer(
(0): Transformer({'max_seq_length': 128, 'do_lower_case': False}) with Transformer model: RobertaModel
(1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
)
```
## Usage
### Direct Usage (Sentence Transformers)
First install the Sentence Transformers library:
```bash
pip install -U sentence-transformers
```
Then you can load this model and run inference.
```python
from sentence_transformers import SentenceTransformer
# Download from the 🤗 Hub
model = SentenceTransformer("jh8416/my_ewha_model_2024_1")
# Run inference
sentences = [
'건강 악화와 후계 구도 아동영화 아홉 명의 배사공 감상 추석 대체공휴일',
'자연상태와 사회계약론 리바이어던 장 장 홉스 주권자 리바이어던 장 장 임시공휴일',
'발음과 특징비대면 러시아 예술가곡과 대중가곡 연습문제 풀이 림스키코르사코프의 작품적 특징과 동양적',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 768]
# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]
```
## Training Details
### Training Dataset
#### Unnamed Dataset
* Size: 9,089 training samples
* Columns: sentence_0
and sentence_1
* Approximate statistics based on the first 1000 samples:
| | sentence_0 | sentence_1 |
|:--------|:----------------------------------------------------------------------------------|:----------------------------------------------------------------------------------|
| type | string | string |
| details |
연휴 통합교육과정 모형 단계 KDB로 이끄는 학습경험의 창안 단계 실습협력적 통합교육과정
| 그리고 그 기억의 재구성 에르노의 부끄러움 현대사회와 개인의 소외 우엘벡의 투쟁
|
| 연휴 통합교육과정 모형 단계 KDB로 이끄는 학습경험의 창안 단계 실습협력적 통합교육과정
| 기획 및 검증 지지와 공감을 이끄는 프리젠테이션 스킬사회문제를 해결하며 사회를 위한
|
| 연휴 통합교육과정 모형 단계 KDB로 이끄는 학습경험의 창안 단계 실습협력적 통합교육과정
| 학생들의 발표와 토론이 수업을 이끄는 주요한 원동력이다
|
* Loss: [MultipleNegativesRankingLoss
](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#multiplenegativesrankingloss) with these parameters:
```json
{
"scale": 20.0,
"similarity_fct": "cos_sim"
}
```
### Training Hyperparameters
#### Non-Default Hyperparameters
- `per_device_train_batch_size`: 16
- `per_device_eval_batch_size`: 16
- `num_train_epochs`: 1
- `multi_dataset_batch_sampler`: round_robin
#### All Hyperparameters