- Deskripsi :
LEM, tolok ukur Evaluasi Pemahaman Bahasa Umum ( https://gluebenchmark.com/ ) adalah kumpulan sumber daya untuk melatih, mengevaluasi, dan menganalisis sistem pemahaman bahasa alami.
Dokumentasi Tambahan : Jelajahi di Makalah Dengan Kode
Kode sumber :
tfds.text.Glue
Versi :
-
1.0.0
: API split baru ( https://tensorflow.org/datasets/splits ) -
1.0.1
: Perbarui tautan URL mati. -
2.0.0
(default): Perbarui sumber data untuk glue/qqp.
-
Di-cache otomatis ( dokumentasi ): Ya
Kunci yang diawasi (Lihat
as_supervised
doc ):None
Gambar ( tfds.show_examples ): Tidak didukung.
lem/cola (konfigurasi default)
Deskripsi konfigurasi : Corpus of Linguistic Acceptability terdiri dari penilaian penerimaan bahasa Inggris yang diambil dari buku dan artikel jurnal tentang teori linguistik. Setiap contoh adalah urutan kata yang dianotasi dengan apakah itu kalimat bahasa Inggris tata bahasa.
Beranda : https://nyu-mll.github.io/CoLA/
Ukuran unduhan :
368.14 KiB
Ukuran dataset :
965.49 KiB
Perpecahan :
Membelah | Contoh |
---|---|
'test' | 1.063 |
'train' | 8.551 |
'validation' | 1.043 |
- Struktur fitur :
FeaturesDict({
'idx': int32,
'label': ClassLabel(shape=(), dtype=int64, num_classes=2),
'sentence': Text(shape=(), dtype=string),
})
- Dokumentasi fitur :
Fitur | Kelas | Membentuk | Dtype | Keterangan |
---|---|---|---|---|
fiturDict | ||||
idx | Tensor | int32 | ||
label | LabelKelas | int64 | ||
kalimat | Teks | rangkaian |
- Contoh ( tfds.as_dataframe ):
- Kutipan :
@article{warstadt2018neural,
title={Neural Network Acceptability Judgments},
author={Warstadt, Alex and Singh, Amanpreet and Bowman, Samuel R},
journal={arXiv preprint arXiv:1805.12471},
year={2018}
}
@inproceedings{wang2019glue,
title={ {GLUE}: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding},
author={Wang, Alex and Singh, Amanpreet and Michael, Julian and Hill, Felix and Levy, Omer and Bowman, Samuel R.},
note={In the Proceedings of ICLR.},
year={2019}
}
Note that each GLUE dataset has its own citation. Please see the source to see
the correct citation for each contained dataset.
lem/sst2
Deskripsi konfigurasi : Stanford Sentiment Treebank terdiri dari kalimat-kalimat dari ulasan film dan anotasi manusia tentang sentimen mereka. Tugasnya adalah memprediksi sentimen dari kalimat yang diberikan. Kami menggunakan pemisahan kelas dua arah (positif/negatif), dan hanya menggunakan label tingkat kalimat.
Ukuran unduhan :
7.09 MiB
Ukuran dataset :
7.22 MiB
Perpecahan :
Membelah | Contoh |
---|---|
'test' | 1.821 |
'train' | 67.349 |
'validation' | 872 |
- Struktur fitur :
FeaturesDict({
'idx': int32,
'label': ClassLabel(shape=(), dtype=int64, num_classes=2),
'sentence': Text(shape=(), dtype=string),
})
- Dokumentasi fitur :
Fitur | Kelas | Membentuk | Dtype | Keterangan |
---|---|---|---|---|
fiturDict | ||||
idx | Tensor | int32 | ||
label | LabelKelas | int64 | ||
kalimat | Teks | rangkaian |
- Contoh ( tfds.as_dataframe ):
- Kutipan :
@inproceedings{socher2013recursive,
title={Recursive deep models for semantic compositionality over a sentiment treebank},
author={Socher, Richard and Perelygin, Alex and Wu, Jean and Chuang, Jason and Manning, Christopher D and Ng, Andrew and Potts, Christopher},
booktitle={Proceedings of the 2013 conference on empirical methods in natural language processing},
pages={1631--1642},
year={2013}
}
@inproceedings{wang2019glue,
title={ {GLUE}: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding},
author={Wang, Alex and Singh, Amanpreet and Michael, Julian and Hill, Felix and Levy, Omer and Bowman, Samuel R.},
note={In the Proceedings of ICLR.},
year={2019}
}
Note that each GLUE dataset has its own citation. Please see the source to see
the correct citation for each contained dataset.
lem/mrpc
Deskripsi konfigurasi : Microsoft Research Paraphrase Corpus (Dolan & Brockett, 2005) adalah kumpulan pasangan kalimat yang secara otomatis diambil dari sumber berita online, dengan anotasi manusia untuk mengetahui apakah kalimat dalam pasangan tersebut setara secara semantik.
Beranda : https://www.microsoft.com/en-us/download/details.aspx?id=52398
Ukuran unduhan :
1.43 MiB
Ukuran dataset :
1.74 MiB
Perpecahan :
Membelah | Contoh |
---|---|
'test' | 1.725 |
'train' | 3.668 |
'validation' | 408 |
- Struktur fitur :
FeaturesDict({
'idx': int32,
'label': ClassLabel(shape=(), dtype=int64, num_classes=2),
'sentence1': Text(shape=(), dtype=string),
'sentence2': Text(shape=(), dtype=string),
})
- Dokumentasi fitur :
Fitur | Kelas | Membentuk | Dtype | Keterangan |
---|---|---|---|---|
fiturDict | ||||
idx | Tensor | int32 | ||
label | LabelKelas | int64 | ||
kalimat1 | Teks | rangkaian | ||
kalimat2 | Teks | rangkaian |
- Contoh ( tfds.as_dataframe ):
- Kutipan :
@inproceedings{dolan2005automatically,
title={Automatically constructing a corpus of sentential paraphrases},
author={Dolan, William B and Brockett, Chris},
booktitle={Proceedings of the Third International Workshop on Paraphrasing (IWP2005)},
year={2005}
}
@inproceedings{wang2019glue,
title={ {GLUE}: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding},
author={Wang, Alex and Singh, Amanpreet and Michael, Julian and Hill, Felix and Levy, Omer and Bowman, Samuel R.},
note={In the Proceedings of ICLR.},
year={2019}
}
Note that each GLUE dataset has its own citation. Please see the source to see
the correct citation for each contained dataset.
lem / qqp
Deskripsi Config : Dataset Quora Question Pairs2 adalah kumpulan pasangan pertanyaan dari situs web tanya jawab komunitas Quora. Tugasnya adalah menentukan apakah sepasang pertanyaan setara secara semantik.
Beranda : https://data.quora.com/First-Quora-Dataset-Release-Question-Pairs
Ukuran unduhan :
39.76 MiB
Ukuran dataset :
150.37 MiB
Perpecahan :
Membelah | Contoh |
---|---|
'test' | 390.965 |
'train' | 363.846 |
'validation' | 40.430 |
- Struktur fitur :
FeaturesDict({
'idx': int32,
'label': ClassLabel(shape=(), dtype=int64, num_classes=2),
'question1': Text(shape=(), dtype=string),
'question2': Text(shape=(), dtype=string),
})
- Dokumentasi fitur :
Fitur | Kelas | Membentuk | Dtype | Keterangan |
---|---|---|---|---|
fiturDict | ||||
idx | Tensor | int32 | ||
label | LabelKelas | int64 | ||
pertanyaan 1 | Teks | rangkaian | ||
pertanyaan2 | Teks | rangkaian |
- Contoh ( tfds.as_dataframe ):
- Kutipan :
@online{WinNT,
author = {Iyer, Shankar and Dandekar, Nikhil and Csernai, Kornel},
title = {First Quora Dataset Release: Question Pairs},
year = 2017,
url = {https://data.quora.com/First-Quora-Dataset-Release-Question-Pairs},
urldate = {2019-04-03}
}
@inproceedings{wang2019glue,
title={ {GLUE}: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding},
author={Wang, Alex and Singh, Amanpreet and Michael, Julian and Hill, Felix and Levy, Omer and Bowman, Samuel R.},
note={In the Proceedings of ICLR.},
year={2019}
}
Note that each GLUE dataset has its own citation. Please see the source to see
the correct citation for each contained dataset.
lem/stsb
Deskripsi konfigurasi : Tolok Ukur Kesamaan Tekstual Semantik (Cer et al., 2017) adalah kumpulan pasangan kalimat yang diambil dari judul berita, keterangan video dan gambar, serta data inferensi bahasa alami. Setiap pasangan dianotasi manusia dengan skor kesamaan dari 0 hingga 5.
Beranda : http://ixa2.si.ehu.es/stswiki/index.php/STSbenchmark
Ukuran unduhan :
784.05 KiB
Ukuran dataset :
1.58 MiB
Perpecahan :
Membelah | Contoh |
---|---|
'test' | 1.379 |
'train' | 5.749 |
'validation' | 1.500 |
- Struktur fitur :
FeaturesDict({
'idx': int32,
'label': float32,
'sentence1': Text(shape=(), dtype=string),
'sentence2': Text(shape=(), dtype=string),
})
- Dokumentasi fitur :
Fitur | Kelas | Membentuk | Dtype | Keterangan |
---|---|---|---|---|
fiturDict | ||||
idx | Tensor | int32 | ||
label | Tensor | float32 | ||
kalimat1 | Teks | rangkaian | ||
kalimat2 | Teks | rangkaian |
- Contoh ( tfds.as_dataframe ):
- Kutipan :
@article{cer2017semeval,
title={Semeval-2017 task 1: Semantic textual similarity-multilingual and cross-lingual focused evaluation},
author={Cer, Daniel and Diab, Mona and Agirre, Eneko and Lopez-Gazpio, Inigo and Specia, Lucia},
journal={arXiv preprint arXiv:1708.00055},
year={2017}
}
@inproceedings{wang2019glue,
title={ {GLUE}: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding},
author={Wang, Alex and Singh, Amanpreet and Michael, Julian and Hill, Felix and Levy, Omer and Bowman, Samuel R.},
note={In the Proceedings of ICLR.},
year={2019}
}
Note that each GLUE dataset has its own citation. Please see the source to see
the correct citation for each contained dataset.
lem/mnli
Deskripsi konfigurasi : Korpus Inferensi Bahasa Alami Multi-Genre adalah kumpulan pasangan kalimat bersumber dari banyak orang dengan anotasi keterlibatan tekstual. Diberikan kalimat premis dan kalimat hipotesis, tugasnya adalah memprediksi apakah premis tersebut memerlukan hipotesis (entailment), bertentangan dengan hipotesis (kontradiksi), atau tidak keduanya (netral). Kalimat premis dikumpulkan dari sepuluh sumber yang berbeda, termasuk transkripsi pidato, fiksi, dan laporan pemerintah. Kami menggunakan set pengujian standar, yang kami peroleh label pribadi dari penulis, dan mengevaluasi bagian yang cocok (dalam domain) dan tidak cocok (lintas domain). Kami juga menggunakan dan merekomendasikan korpus SNLI sebagai 550k contoh data pelatihan tambahan.
Ukuran unduhan :
298.29 MiB
Ukuran dataset :
100.56 MiB
Perpecahan :
Membelah | Contoh |
---|---|
'test_matched' | 9.796 |
'test_mismatched' | 9.847 |
'train' | 392.702 |
'validation_matched' | 9.815 |
'validation_mismatched' | 9.832 |
- Struktur fitur :
FeaturesDict({
'hypothesis': Text(shape=(), dtype=string),
'idx': int32,
'label': ClassLabel(shape=(), dtype=int64, num_classes=3),
'premise': Text(shape=(), dtype=string),
})
- Dokumentasi fitur :
Fitur | Kelas | Membentuk | Dtype | Keterangan |
---|---|---|---|---|
fiturDict | ||||
hipotesa | Teks | rangkaian | ||
idx | Tensor | int32 | ||
label | LabelKelas | int64 | ||
premis | Teks | rangkaian |
- Contoh ( tfds.as_dataframe ):
- Kutipan :
@InProceedings{N18-1101,
author = "Williams, Adina
and Nangia, Nikita
and Bowman, Samuel",
title = "A Broad-Coverage Challenge Corpus for
Sentence Understanding through Inference",
booktitle = "Proceedings of the 2018 Conference of
the North American Chapter of the
Association for Computational Linguistics:
Human Language Technologies, Volume 1 (Long
Papers)",
year = "2018",
publisher = "Association for Computational Linguistics",
pages = "1112--1122",
location = "New Orleans, Louisiana",
url = "http://aclweb.org/anthology/N18-1101"
}
@article{bowman2015large,
title={A large annotated corpus for learning natural language inference},
author={Bowman, Samuel R and Angeli, Gabor and Potts, Christopher and Manning, Christopher D},
journal={arXiv preprint arXiv:1508.05326},
year={2015}
}
@inproceedings{wang2019glue,
title={ {GLUE}: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding},
author={Wang, Alex and Singh, Amanpreet and Michael, Julian and Hill, Felix and Levy, Omer and Bowman, Samuel R.},
note={In the Proceedings of ICLR.},
year={2019}
}
Note that each GLUE dataset has its own citation. Please see the source to see
the correct citation for each contained dataset.
glue/mnli_mismatched
Deskripsi konfigurasi : Validasi yang tidak cocok dan pemisahan tes dari MNLI. Lihat BuilderConfig "mnli" untuk informasi tambahan.
Ukuran unduhan :
298.29 MiB
Ukuran dataset :
4.79 MiB
Perpecahan :
Membelah | Contoh |
---|---|
'test' | 9.847 |
'validation' | 9.832 |
- Struktur fitur :
FeaturesDict({
'hypothesis': Text(shape=(), dtype=string),
'idx': int32,
'label': ClassLabel(shape=(), dtype=int64, num_classes=3),
'premise': Text(shape=(), dtype=string),
})
- Dokumentasi fitur :
Fitur | Kelas | Membentuk | Dtype | Keterangan |
---|---|---|---|---|
fiturDict | ||||
hipotesa | Teks | rangkaian | ||
idx | Tensor | int32 | ||
label | LabelKelas | int64 | ||
premis | Teks | rangkaian |
- Contoh ( tfds.as_dataframe ):
- Kutipan :
@InProceedings{N18-1101,
author = "Williams, Adina
and Nangia, Nikita
and Bowman, Samuel",
title = "A Broad-Coverage Challenge Corpus for
Sentence Understanding through Inference",
booktitle = "Proceedings of the 2018 Conference of
the North American Chapter of the
Association for Computational Linguistics:
Human Language Technologies, Volume 1 (Long
Papers)",
year = "2018",
publisher = "Association for Computational Linguistics",
pages = "1112--1122",
location = "New Orleans, Louisiana",
url = "http://aclweb.org/anthology/N18-1101"
}
@article{bowman2015large,
title={A large annotated corpus for learning natural language inference},
author={Bowman, Samuel R and Angeli, Gabor and Potts, Christopher and Manning, Christopher D},
journal={arXiv preprint arXiv:1508.05326},
year={2015}
}
@inproceedings{wang2019glue,
title={ {GLUE}: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding},
author={Wang, Alex and Singh, Amanpreet and Michael, Julian and Hill, Felix and Levy, Omer and Bowman, Samuel R.},
note={In the Proceedings of ICLR.},
year={2019}
}
Note that each GLUE dataset has its own citation. Please see the source to see
the correct citation for each contained dataset.
glue/mnli_matched
Deskripsi konfigurasi : Validasi yang cocok dan pemisahan pengujian dari MNLI. Lihat BuilderConfig "mnli" untuk informasi tambahan.
Ukuran unduhan :
298.29 MiB
Ukuran dataset :
4.58 MiB
Perpecahan :
Membelah | Contoh |
---|---|
'test' | 9.796 |
'validation' | 9.815 |
- Struktur fitur :
FeaturesDict({
'hypothesis': Text(shape=(), dtype=string),
'idx': int32,
'label': ClassLabel(shape=(), dtype=int64, num_classes=3),
'premise': Text(shape=(), dtype=string),
})
- Dokumentasi fitur :
Fitur | Kelas | Membentuk | Dtype | Keterangan |
---|---|---|---|---|
fiturDict | ||||
hipotesa | Teks | rangkaian | ||
idx | Tensor | int32 | ||
label | LabelKelas | int64 | ||
premis | Teks | rangkaian |
- Contoh ( tfds.as_dataframe ):
- Kutipan :
@InProceedings{N18-1101,
author = "Williams, Adina
and Nangia, Nikita
and Bowman, Samuel",
title = "A Broad-Coverage Challenge Corpus for
Sentence Understanding through Inference",
booktitle = "Proceedings of the 2018 Conference of
the North American Chapter of the
Association for Computational Linguistics:
Human Language Technologies, Volume 1 (Long
Papers)",
year = "2018",
publisher = "Association for Computational Linguistics",
pages = "1112--1122",
location = "New Orleans, Louisiana",
url = "http://aclweb.org/anthology/N18-1101"
}
@article{bowman2015large,
title={A large annotated corpus for learning natural language inference},
author={Bowman, Samuel R and Angeli, Gabor and Potts, Christopher and Manning, Christopher D},
journal={arXiv preprint arXiv:1508.05326},
year={2015}
}
@inproceedings{wang2019glue,
title={ {GLUE}: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding},
author={Wang, Alex and Singh, Amanpreet and Michael, Julian and Hill, Felix and Levy, Omer and Bowman, Samuel R.},
note={In the Proceedings of ICLR.},
year={2019}
}
Note that each GLUE dataset has its own citation. Please see the source to see
the correct citation for each contained dataset.
lem/qnli
Deskripsi konfigurasi : Dataset Penjawab Pertanyaan Stanford adalah dataset penjawab pertanyaan yang terdiri dari pasangan pertanyaan-paragraf, di mana salah satu kalimat dalam paragraf (diambil dari Wikipedia) berisi jawaban atas pertanyaan yang sesuai (ditulis oleh annotator). Kami mengubah tugas menjadi klasifikasi pasangan kalimat dengan membentuk pasangan antara setiap pertanyaan dan setiap kalimat dalam konteks yang sesuai, dan menyaring pasangan dengan tumpang tindih leksikal rendah antara pertanyaan dan kalimat konteks. Tugasnya adalah menentukan apakah kalimat konteks berisi jawaban atas pertanyaan. Versi modifikasi dari tugas asli ini menghilangkan persyaratan bahwa model memilih jawaban yang tepat, tetapi juga menghilangkan asumsi penyederhanaan bahwa jawaban selalu ada dalam input dan tumpang tindih leksikal adalah isyarat yang andal.
Ukuran unduhan :
10.14 MiB
Ukuran dataset :
32.99 MiB
Perpecahan :
Membelah | Contoh |
---|---|
'test' | 5.463 |
'train' | 104.743 |
'validation' | 5.463 |
- Struktur fitur :
FeaturesDict({
'idx': int32,
'label': ClassLabel(shape=(), dtype=int64, num_classes=2),
'question': Text(shape=(), dtype=string),
'sentence': Text(shape=(), dtype=string),
})
- Dokumentasi fitur :
Fitur | Kelas | Membentuk | Dtype | Keterangan |
---|---|---|---|---|
fiturDict | ||||
idx | Tensor | int32 | ||
label | LabelKelas | int64 | ||
pertanyaan | Teks | rangkaian | ||
kalimat | Teks | rangkaian |
- Contoh ( tfds.as_dataframe ):
- Kutipan :
@article{rajpurkar2016squad,
title={Squad: 100,000+ questions for machine comprehension of text},
author={Rajpurkar, Pranav and Zhang, Jian and Lopyrev, Konstantin and Liang, Percy},
journal={arXiv preprint arXiv:1606.05250},
year={2016}
}
@inproceedings{wang2019glue,
title={ {GLUE}: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding},
author={Wang, Alex and Singh, Amanpreet and Michael, Julian and Hill, Felix and Levy, Omer and Bowman, Samuel R.},
note={In the Proceedings of ICLR.},
year={2019}
}
Note that each GLUE dataset has its own citation. Please see the source to see
the correct citation for each contained dataset.
lem/rte
Deskripsi konfigurasi : Kumpulan data Recognizing Textual Entailment (RTE) berasal dari serangkaian tantangan persyaratan tekstual tahunan. Kami menggabungkan data dari RTE1 (Dagan et al., 2006), RTE2 (Bar Haim et al., 2006), RTE3 (Giampiccolo et al., 2007), dan RTE5 (Bentivogli et al., 2009).4 Contohnya adalah dibangun berdasarkan berita dan teks Wikipedia. Kami mengonversi semua kumpulan data menjadi pemisahan dua kelas, di mana untuk kumpulan data tiga kelas kami menciutkan netral dan kontradiksi menjadi tidak terikat, untuk konsistensi.
Beranda : https://aclweb.org/aclwiki/Recognizing_Textual_Entailment
Ukuran unduhan :
680.81 KiB
Ukuran dataset :
2.15 MiB
Perpecahan :
Membelah | Contoh |
---|---|
'test' | 3.000 |
'train' | 2.490 |
'validation' | 277 |
- Struktur fitur :
FeaturesDict({
'idx': int32,
'label': ClassLabel(shape=(), dtype=int64, num_classes=2),
'sentence1': Text(shape=(), dtype=string),
'sentence2': Text(shape=(), dtype=string),
})
- Dokumentasi fitur :
Fitur | Kelas | Membentuk | Dtype | Keterangan |
---|---|---|---|---|
fiturDict | ||||
idx | Tensor | int32 | ||
label | LabelKelas | int64 | ||
kalimat1 | Teks | rangkaian | ||
kalimat2 | Teks | rangkaian |
- Contoh ( tfds.as_dataframe ):
- Kutipan :
@inproceedings{dagan2005pascal,
title={The PASCAL recognising textual entailment challenge},
author={Dagan, Ido and Glickman, Oren and Magnini, Bernardo},
booktitle={Machine Learning Challenges Workshop},
pages={177--190},
year={2005},
organization={Springer}
}
@inproceedings{bar2006second,
title={The second pascal recognising textual entailment challenge},
author={Bar-Haim, Roy and Dagan, Ido and Dolan, Bill and Ferro, Lisa and Giampiccolo, Danilo and Magnini, Bernardo and Szpektor, Idan},
booktitle={Proceedings of the second PASCAL challenges workshop on recognising textual entailment},
volume={6},
number={1},
pages={6--4},
year={2006},
organization={Venice}
}
@inproceedings{giampiccolo2007third,
title={The third pascal recognizing textual entailment challenge},
author={Giampiccolo, Danilo and Magnini, Bernardo and Dagan, Ido and Dolan, Bill},
booktitle={Proceedings of the ACL-PASCAL workshop on textual entailment and paraphrasing},
pages={1--9},
year={2007},
organization={Association for Computational Linguistics}
}
@inproceedings{bentivogli2009fifth,
title={The Fifth PASCAL Recognizing Textual Entailment Challenge.},
author={Bentivogli, Luisa and Clark, Peter and Dagan, Ido and Giampiccolo, Danilo},
booktitle={TAC},
year={2009}
}
@inproceedings{wang2019glue,
title={ {GLUE}: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding},
author={Wang, Alex and Singh, Amanpreet and Michael, Julian and Hill, Felix and Levy, Omer and Bowman, Samuel R.},
note={In the Proceedings of ICLR.},
year={2019}
}
Note that each GLUE dataset has its own citation. Please see the source to see
the correct citation for each contained dataset.
lem/wnli
Deskripsi konfigurasi : Tantangan Skema Winograd (Levesque et al., 2011) adalah tugas pemahaman membaca di mana sistem harus membaca kalimat dengan kata ganti dan memilih rujukan kata ganti itu dari daftar pilihan. Contoh dibuat secara manual untuk menggagalkan metode statistik sederhana: Masing-masing bergantung pada informasi kontekstual yang diberikan oleh satu kata atau frase dalam kalimat. Untuk mengubah masalah menjadi klasifikasi pasangan kalimat, kami membuat pasangan kalimat dengan mengganti kata ganti yang ambigu dengan setiap referensi yang mungkin. Tugasnya adalah memprediksi apakah kalimat dengan kata ganti yang diganti disyaratkan oleh kalimat aslinya. Kami menggunakan kumpulan evaluasi kecil yang terdiri dari contoh baru yang berasal dari buku fiksi yang dibagikan secara pribadi oleh penulis korpus aslinya. Sementara set pelatihan yang disertakan seimbang di antara dua kelas, set tes tidak seimbang di antara keduanya (65% bukan persyaratan). Selain itu, karena kekhasan data, set pengembangan bersifat permusuhan: hipotesis kadang-kadang dibagi antara contoh pelatihan dan pengembangan, jadi jika model mengingat contoh pelatihan, mereka akan memprediksi label yang salah pada contoh set pengembangan yang sesuai. Seperti halnya QNLI, setiap contoh dievaluasi secara terpisah, jadi tidak ada korespondensi sistematis antara skor model pada tugas ini dan skornya pada tugas asli yang belum dikonversi. Kami menyebut dataset yang dikonversi WNLI (Winograd NLI).
Beranda : https://cs.nyu.edu/faculty/davise/papers/WinogradSchemas/WS.html
Ukuran unduhan :
28.32 KiB
Ukuran dataset :
198.88 KiB
Perpecahan :
Membelah | Contoh |
---|---|
'test' | 146 |
'train' | 635 |
'validation' | 71 |
- Struktur fitur :
FeaturesDict({
'idx': int32,
'label': ClassLabel(shape=(), dtype=int64, num_classes=2),
'sentence1': Text(shape=(), dtype=string),
'sentence2': Text(shape=(), dtype=string),
})
- Dokumentasi fitur :
Fitur | Kelas | Membentuk | Dtype | Keterangan |
---|---|---|---|---|
fiturDict | ||||
idx | Tensor | int32 | ||
label | LabelKelas | int64 | ||
kalimat1 | Teks | rangkaian | ||
kalimat2 | Teks | rangkaian |
- Contoh ( tfds.as_dataframe ):
- Kutipan :
@inproceedings{levesque2012winograd,
title={The winograd schema challenge},
author={Levesque, Hector and Davis, Ernest and Morgenstern, Leora},
booktitle={Thirteenth International Conference on the Principles of Knowledge Representation and Reasoning},
year={2012}
}
@inproceedings{wang2019glue,
title={ {GLUE}: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding},
author={Wang, Alex and Singh, Amanpreet and Michael, Julian and Hill, Felix and Levy, Omer and Bowman, Samuel R.},
note={In the Proceedings of ICLR.},
year={2019}
}
Note that each GLUE dataset has its own citation. Please see the source to see
the correct citation for each contained dataset.
lem/kapak
Deskripsi konfigurasi : Kumpulan data evaluasi yang dikuratori secara manual untuk analisis mendetail tentang kinerja sistem pada berbagai fenomena linguistik. Dataset ini mengevaluasi pemahaman kalimat melalui soal-soal Natural Language Inference (NLI). Gunakan model yang dilatih di MulitNLI untuk menghasilkan prediksi untuk set data ini.
Beranda : https://gluebenchmark.com/diagnostics
Ukuran unduhan :
217.05 KiB
Ukuran dataset :
299.16 KiB
Perpecahan :
Membelah | Contoh |
---|---|
'test' | 1.104 |
- Struktur fitur :
FeaturesDict({
'hypothesis': Text(shape=(), dtype=string),
'idx': int32,
'label': ClassLabel(shape=(), dtype=int64, num_classes=3),
'premise': Text(shape=(), dtype=string),
})
- Dokumentasi fitur :
Fitur | Kelas | Membentuk | Dtype | Keterangan |
---|---|---|---|---|
fiturDict | ||||
hipotesa | Teks | rangkaian | ||
idx | Tensor | int32 | ||
label | LabelKelas | int64 | ||
premis | Teks | rangkaian |
- Contoh ( tfds.as_dataframe ):
- Kutipan :
@inproceedings{wang2019glue,
title={ {GLUE}: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding},
author={Wang, Alex and Singh, Amanpreet and Michael, Julian and Hill, Felix and Levy, Omer and Bowman, Samuel R.},
note={In the Proceedings of ICLR.},
year={2019}
}
Note that each GLUE dataset has its own citation. Please see the source to see
the correct citation for each contained dataset.