Datasets:
Update README.md
Browse files
README.md
CHANGED
@@ -41,15 +41,15 @@ size_categories:
|
|
41 |
## Dataset Summary
|
42 |
This is a Japanese translated version of HumanEval, an evaluation harness for the HumanEval problem solving dataset described in the paper "Evaluating Large Language Models Trained on Code".
|
43 |
|
44 |
-
LLMのコード生成能力の標準ベンチマーク HumanEval の日本語翻訳版です。
|
45 |
機械翻訳(DeepL, GPT-4)の翻訳結果を全て人手によって再修正し、 訳文を日本人のプログラマが読んで理解し、コードが書ける内容かチェックしました。
|
46 |
ただし、英語版 HumanEval の間違いは、修正せずに残して、 HumanEval 同様に不完全なドキュメントからの生成能力を見るようになっています。
|
47 |
-
日本語LLMのベンチマークとしてお使いください。
|
48 |
|
49 |
## Languages
|
50 |
The programming problems are written in Python and contain English and Japanese natural text in comments and docstrings.
|
51 |
|
52 |
-
Pythonで書かれたプログラミング問題のデータセットには、英語と日本語のコメントやドキュメントストリングがそれぞれ別々に含まれています。
|
53 |
|
54 |
|
55 |
## Dataset Structure
|
@@ -93,7 +93,7 @@ The dataset only consists of a test split with 164 samples.
|
|
93 |
|
94 |
## How to Use
|
95 |
|
96 |
-
参照コードでpass@1を算出する例:
|
97 |
|
98 |
```python
|
99 |
import os
|
|
|
41 |
## Dataset Summary
|
42 |
This is a Japanese translated version of HumanEval, an evaluation harness for the HumanEval problem solving dataset described in the paper "Evaluating Large Language Models Trained on Code".
|
43 |
|
44 |
+
LLM のコード生成能力の標準ベンチマーク HumanEval の日本語翻訳版です。
|
45 |
機械翻訳(DeepL, GPT-4)の翻訳結果を全て人手によって再修正し、 訳文を日本人のプログラマが読んで理解し、コードが書ける内容かチェックしました。
|
46 |
ただし、英語版 HumanEval の間違いは、修正せずに残して、 HumanEval 同様に不完全なドキュメントからの生成能力を見るようになっています。
|
47 |
+
日本語LLM のベンチマークとしてお使いください。
|
48 |
|
49 |
## Languages
|
50 |
The programming problems are written in Python and contain English and Japanese natural text in comments and docstrings.
|
51 |
|
52 |
+
Python で書かれたプログラミング問題のデータセットには、英語と日本語のコメントやドキュメントストリングがそれぞれ別々に含まれています。
|
53 |
|
54 |
|
55 |
## Dataset Structure
|
|
|
93 |
|
94 |
## How to Use
|
95 |
|
96 |
+
参照コードで pass@1 を算出する例:
|
97 |
|
98 |
```python
|
99 |
import os
|