--- dataset_info: features: - name: id dtype: string - name: url dtype: string - name: title dtype: string - name: text dtype: string splits: - name: train num_bytes: 7088384480 num_examples: 1395760 download_size: 3968649901 dataset_size: 7088384480 configs: - config_name: default data_files: - split: train path: data/train-* language: - ja license: cc-by-sa-3.0 --- `apache_beam`と`mwparserfromhell`を用いて通常の[Wikipedia](https://huggingface.co/datasets/wikipedia)の前処理を行ったデータセットです。 本家の前処理時間が長すぎたため、前処理済みバージョンを配布しています。 各種規約・ライセンスは本家Wikipediaにしたがってください。 ## Preprocessing Code ```python import datasets as ds dataset = ds.load_dataset( "wikipedia", language="ja", date="20240101", beam_runner="DirectRunner", trust_remote_code=True, ) dataset.push_to_hub("hpprc/wikipedia-20240101", max_shard_size="1GB") ```