Datasets:

Modalities:
Text
Formats:
json
Languages:
Kazakh
ArXiv:
Libraries:
Datasets
pandas
License:
kazqad-retrieval / README.md
pefimov's picture
Update README.md
a399968 verified
metadata
license: cc-by-sa-4.0
task_categories:
  - text-retrieval
task_ids:
  - document-retrieval
language:
  - kk
source_datasets:
  - original
  - extended|natural_questions
  - extended|wikipedia
pretty_name: KazQAD-Retrieval
configs:
  - config_name: queries-and-passages
    data_files:
      - split: train
        path: >-
          queries-and-passages/kazqad-queries-and-passages-v1.0-kk-train.jsonl.gz
      - split: validation
        path: >-
          queries-and-passages/kazqad-queries-and-passages-v1.0-kk-validation.jsonl.gz
      - split: test
        path: queries-and-passages/kazqad-queries-and-passages-v1.0-kk-test.jsonl.gz
    default: true
  - config_name: corpus
    data_files: corpus/kazqad-corpus-v1.0-kk.jsonl.gz

Dataset Card for KazQAD-Retrieval

Dataset Description

Dataset Summary

KazQAD is a Kazakh open-domain Question Answering Dataset that can be used in both reading comprehension and full ODQA settings, as well as for information retrieval experiments. This repository contains only the collection and relevance judgments for information retrieval task. Short answers and data for the reading comprehension task (extractive QA) can be found here.

KazQAD contains just under 6,000 unique questions and nearly 12,000 passage-level relevance judgements (subset queries-and-passages). The questions come from two sources: translated items from the Natural Questions (NQ) dataset (only for training) and the original Kazakh Unified National Testing (UNT) exam (for development and testing).

The accompanying text corpus (subset corpus) contains more than 800,000 passages from the Kazakh Wikipedia.

IR format data (topics and qrels) can be found in our Github repository.

Dataset Structure

Data Instances

An example of passage-level relevance judgements (subset queries-and-passages) looks as follows.

{
    "id": "kzh2998kzh",
    "question": "Ғұндардың ру көсемдері кім болды?",
    "positive_passages": [
      {
        "docid": "101241_28_1",
        "title": "Көшпелілердегі қоғамдық қатынастар",
        "text": "Хан билігі бүкіл елге қатысты жоғары саяси билік болса, ру, тайпа көлеміндегі нақты билік сол рулардан шыққан беделді ру ақсақалдарының қолында болды..."
      },
    ]
    "negative_passages": [
      {
        "docid": "101241_24_1",
        "title": "Көшпелілердегі қоғамдық қатынастар",
        "text": "Қазақ хандарының жанында ақылшысы, кеңесшілері, төбе билері, жасақтары, іс жүргізуші мемлекеттік қызметкерлері болды..."
      },
      {
        "docid": "79445_3_1",
        "title": "Ежелгі герман тайпалары және рим империясы",
        "text": "...Германдық тайпалардың негізгі шаруашылық ұясы қауым болды. Қауым мүшелері топқа бөлінбей, жерді бірлесіп өңдеді..."
      },
    ]
}

An example of Kazakh Wikipedia collection (subset corpus) looks as follows.

{
  "docid": "101241_28_1",
  "title": "Көшпелілердегі қоғамдық қатынастар",
  "text": "Хан билігі бүкіл елге қатысты жоғары саяси билік болса, ру, тайпа көлеміндегі нақты билік сол рулардан шыққан беделді ру ақсақалдарының қолында болды..."
}

Data Splits

The following table shows the number of queries (#Q), the number of positive (#P+) and negative (#P-) passages for each data split.

split #Q #P+ #P-
train 3,487 3,893 3,558
validation 548 769 229
test 1,929 2,718 653

Citation Information

@article{kazqad,
       author = {Rustem Yeshpanov, Pavel Efimov, Leonid Boytsov, Ardak Shalkarbayuli and Pavel Braslavski},
        title = {{KazQAD}: Kazakh Open-Domain Question Answering Dataset},
      journal = {Proceedings of the 2024 Joint International Conference on Computational Linguistics, Language Resources and Evaluation (LREC-COLING 2024)},
        pages = {9645--9656},
         year = 2024,
}