- Deskripsi :
Kumpulan data HellaSwag adalah tolok ukur untuk Commonsense NLI. Ini mencakup konteks dan beberapa akhiran yang melengkapi konteks.
Dokumentasi Tambahan : Jelajahi di Makalah Dengan Kode
Beranda : https://rowanzellers.com/hellaswag/
Kode sumber :
tfds.text.Hellaswag
Versi :
-
0.0.1
: Tidak ada catatan rilis. -
1.0.0
: Menambahkan pemisahan terpisah untuk set validasi/pengujian di dalam domain dan di luar domain. -
1.1.0
(default): Dimensi terpisah lainnya untuk sumber (wikihow vs activitynet)
-
Ukuran unduhan :
68.18 MiB
Ukuran dataset :
107.45 MiB
Di-cache otomatis ( dokumentasi ): Ya
Perpecahan :
Membelah | Contoh |
---|---|
'test' | 10.003 |
'test_ind_activitynet' | 1.870 |
'test_ind_wikihow' | 3.132 |
'test_ood_activitynet' | 1.651 |
'test_ood_wikihow' | 3.350 |
'train' | 39.905 |
'train_activitynet' | 14.740 |
'train_wikihow' | 25.165 |
'validation' | 10.042 |
'validation_ind_activitynet' | 1.809 |
'validation_ind_wikihow' | 3.192 |
'validation_ood_activitynet' | 1.434 |
'validation_ood_wikihow' | 3.607 |
- Struktur fitur :
FeaturesDict({
'activity_label': Text(shape=(), dtype=string),
'context': Text(shape=(), dtype=string),
'endings': Sequence(Text(shape=(), dtype=string)),
'label': int32,
'source_id': Text(shape=(), dtype=string),
'split_type': Text(shape=(), dtype=string),
})
- Dokumentasi fitur :
Fitur | Kelas | Membentuk | Dtype | Keterangan |
---|---|---|---|---|
fiturDict | ||||
label_aktivitas | Teks | rangkaian | ||
konteks | Teks | rangkaian | ||
akhiran | Urutan (Teks) | (Tidak ada,) | rangkaian | |
label | Tensor | int32 | ||
source_id | Teks | rangkaian | ||
split_type | Teks | rangkaian |
Kunci yang diawasi (Lihat
as_supervised
doc ):None
Gambar ( tfds.show_examples ): Tidak didukung.
Contoh ( tfds.as_dataframe ):
- Kutipan :
@inproceedings{zellers2019hellaswag,
title={HellaSwag: Can a Machine Really Finish Your Sentence?},
author={Zellers, Rowan and Holtzman, Ari and Bisk, Yonatan and Farhadi, Ali and Choi, Yejin},
booktitle ={Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics},
year={2019}
}