صمغ

  • الوصف:

الغراء، ولغة عامة فهم معايير التقييم ( https://gluebenchmark.com/ ) هي عبارة عن مجموعة من الموارد المخصصة للتدريب وتقييم وتحليل اللغة الطبيعية النظم فهم.

الغراء / الكولا (التكوين الافتراضي)

  • التكوين وصف: إن كوربوس من القبول اللغوية يتكون من الأحكام القبول الإنجليزية مستمدة من الكتب والمقالات الصحفية على نظرية لغوية. كل مثال عبارة عن سلسلة من الكلمات مشروحة بما إذا كانت جملة إنجليزية نحوية.

  • الصفحة الرئيسية: https://nyu-mll.github.io/CoLA/

  • حجم التحميل: 368.14 KiB

  • بيانات حجم: 965.49 KiB

  • الإنشقاقات:

ينقسم أمثلة
'test' 1،063
'train' 8551
'validation' 1043
  • الميزات:
FeaturesDict({
    'idx': tf.int32,
    'label': ClassLabel(shape=(), dtype=tf.int64, num_classes=2),
    'sentence': Text(shape=(), dtype=tf.string),
})
  • الاقتباس:
@article{warstadt2018neural,
  title={Neural Network Acceptability Judgments},
  author={Warstadt, Alex and Singh, Amanpreet and Bowman, Samuel R},
  journal={arXiv preprint arXiv:1805.12471},
  year={2018}
}
@inproceedings{wang2019glue,
  title={ {GLUE}: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding},
  author={Wang, Alex and Singh, Amanpreet and Michael, Julian and Hill, Felix and Levy, Omer and Bowman, Samuel R.},
  note={In the Proceedings of ICLR.},
  year={2019}
}

Note that each GLUE dataset has its own citation. Please see the source to see
the correct citation for each contained dataset.

الغراء / sst2

  • وصف التكوين: إن ثقة ستانفورد Treebank يتكون من جمل من يستعرض الفيلم وشروحه الإنسان لمشاعرهم. المهمة هي التنبؤ بمشاعر جملة معينة. نستخدم تقسيم الفئة ثنائي الاتجاه (إيجابي / سلبي) ، ونستخدم فقط تسميات على مستوى الجملة.

  • الصفحة الرئيسية: https://nlp.stanford.edu/sentiment/index.html

  • حجم التحميل: 7.09 MiB

  • بيانات حجم: 7.22 MiB

  • الإنشقاقات:

ينقسم أمثلة
'test' 1،821
'train' 67349
'validation' 872
  • الميزات:
FeaturesDict({
    'idx': tf.int32,
    'label': ClassLabel(shape=(), dtype=tf.int64, num_classes=2),
    'sentence': Text(shape=(), dtype=tf.string),
})
  • الاقتباس:
@inproceedings{socher2013recursive,
  title={Recursive deep models for semantic compositionality over a sentiment treebank},
  author={Socher, Richard and Perelygin, Alex and Wu, Jean and Chuang, Jason and Manning, Christopher D and Ng, Andrew and Potts, Christopher},
  booktitle={Proceedings of the 2013 conference on empirical methods in natural language processing},
  pages={1631--1642},
  year={2013}
}
@inproceedings{wang2019glue,
  title={ {GLUE}: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding},
  author={Wang, Alex and Singh, Amanpreet and Michael, Julian and Hill, Felix and Levy, Omer and Bowman, Samuel R.},
  note={In the Proceedings of ICLR.},
  year={2019}
}

Note that each GLUE dataset has its own citation. Please see the source to see
the correct citation for each contained dataset.

الغراء / mrpc

  • التكوين وصف: إن مايكروسوفت للبحوث الصياغه كوربوس (دولان وBrockett، 2005) هو جسم من أزواج الجملة المستخرجة تلقائيا من مصادر الأخبار على شبكة الإنترنت، مع شروح الإنسان عن ما إذا كان الجمل في الزوج تعادل غويا.

  • الصفحة الرئيسية: https://www.microsoft.com/en-us/download/details.aspx؟id=52398

  • حجم التحميل: 1.43 MiB

  • بيانات حجم: 1.74 MiB

  • الإنشقاقات:

ينقسم أمثلة
'test' 1،725
'train' 3،668
'validation' 408
  • الميزات:
FeaturesDict({
    'idx': tf.int32,
    'label': ClassLabel(shape=(), dtype=tf.int64, num_classes=2),
    'sentence1': Text(shape=(), dtype=tf.string),
    'sentence2': Text(shape=(), dtype=tf.string),
})
  • الاقتباس:
@inproceedings{dolan2005automatically,
  title={Automatically constructing a corpus of sentential paraphrases},
  author={Dolan, William B and Brockett, Chris},
  booktitle={Proceedings of the Third International Workshop on Paraphrasing (IWP2005)},
  year={2005}
}
@inproceedings{wang2019glue,
  title={ {GLUE}: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding},
  author={Wang, Alex and Singh, Amanpreet and Michael, Julian and Hill, Felix and Levy, Omer and Bowman, Samuel R.},
  note={In the Proceedings of ICLR.},
  year={2019}
}

Note that each GLUE dataset has its own citation. Please see the source to see
the correct citation for each contained dataset.

الغراء / qqp

  • التكوين وصف: مجموعة البيانات قرة سؤال Pairs2 هي عبارة عن مجموعة من أزواج سؤال من-الإجابة على سؤال مجتمع الانترنت قرة. المهمة هي تحديد ما إذا كان زوج من الأسئلة متكافئًا من الناحية اللغوية.

  • الصفحة الرئيسية: https://data.quora.com/First-Quora-Dataset-Release-Question-Pairs

  • حجم التحميل: 39.76 MiB

  • بيانات حجم: 150.37 MiB

  • الإنشقاقات:

ينقسم أمثلة
'test' 390965
'train' 363846
'validation' 40430
  • الميزات:
FeaturesDict({
    'idx': tf.int32,
    'label': ClassLabel(shape=(), dtype=tf.int64, num_classes=2),
    'question1': Text(shape=(), dtype=tf.string),
    'question2': Text(shape=(), dtype=tf.string),
})
  • الاقتباس:
@online{WinNT,
  author = {Iyer, Shankar and Dandekar, Nikhil and Csernai, Kornel},
  title = {First Quora Dataset Release: Question Pairs},
  year = 2017,
  url = {https://data.quora.com/First-Quora-Dataset-Release-Question-Pairs},
  urldate = {2019-04-03}
}
@inproceedings{wang2019glue,
  title={ {GLUE}: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding},
  author={Wang, Alex and Singh, Amanpreet and Michael, Julian and Hill, Felix and Levy, Omer and Bowman, Samuel R.},
  note={In the Proceedings of ICLR.},
  year={2019}
}

Note that each GLUE dataset has its own citation. Please see the source to see
the correct citation for each contained dataset.

الغراء / stsb

  • التكوين وصف: إن المعيار الدلالية النصية التشابه (. حدات خفض الانبعاثات المعتمدة وآخرون، 2017) هي عبارة عن مجموعة من أزواج الجملة مأخوذة من عناوين الأخبار، الفيديو والصور التوضيحية والبيانات الاستدلال اللغة الطبيعية. كل زوج مذكور بشري بنقاط تشابه من 0 إلى 5.

  • الصفحة الرئيسية: http://ixa2.si.ehu.es/stswiki/index.php/STSbenchmark

  • حجم التحميل: 784.05 KiB

  • بيانات حجم: 1.58 MiB

  • الإنشقاقات:

ينقسم أمثلة
'test' 1،379
'train' 5749
'validation' 1500
  • الميزات:
FeaturesDict({
    'idx': tf.int32,
    'label': tf.float32,
    'sentence1': Text(shape=(), dtype=tf.string),
    'sentence2': Text(shape=(), dtype=tf.string),
})
  • الاقتباس:
@article{cer2017semeval,
  title={Semeval-2017 task 1: Semantic textual similarity-multilingual and cross-lingual focused evaluation},
  author={Cer, Daniel and Diab, Mona and Agirre, Eneko and Lopez-Gazpio, Inigo and Specia, Lucia},
  journal={arXiv preprint arXiv:1708.00055},
  year={2017}
}
@inproceedings{wang2019glue,
  title={ {GLUE}: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding},
  author={Wang, Alex and Singh, Amanpreet and Michael, Julian and Hill, Felix and Levy, Omer and Bowman, Samuel R.},
  note={In the Proceedings of ICLR.},
  year={2019}
}

Note that each GLUE dataset has its own citation. Please see the source to see
the correct citation for each contained dataset.

الغراء / منلي

  • وصف التكوين: ومتعدد النوع اللغة الطبيعية الاستدلال كوربوس هو عبارة عن مجموعة من حشد المصادر من أزواج الجملة مع شروح توريث النصية. بالنظر إلى الجملة الافتتاحية وجملة الفرضية ، فإن المهمة هي التنبؤ بما إذا كانت الفرضية تستلزم الفرضية (الاستنتاج) ، أو تتعارض مع الفرضية (التناقض) ، أو لا (محايدة). تم جمع الجمل الافتتاحية من عشرة مصادر مختلفة ، بما في ذلك الكلام المنسوخ ، والخيال ، والتقارير الحكومية. نحن نستخدم مجموعة الاختبار القياسية ، والتي حصلنا عليها من الملصقات الخاصة من المؤلفين ، ونقوم بالتقييم على كل من القسم المطابق (في المجال) والقسم غير المتطابق (عبر المجال). نستخدم أيضًا مجموعة SNLI ونوصي بها باعتبارها 550 ألف أمثلة لبيانات التدريب الإضافي.

  • الصفحة الرئيسية: http://www.nyu.edu/projects/bowman/multinli/

  • حجم التحميل: 298.29 MiB

  • بيانات حجم: 100.56 MiB

  • الإنشقاقات:

ينقسم أمثلة
'test_matched' 9796
'test_mismatched' 9847
'train' 392702
'validation_matched' 9815
'validation_mismatched' 9832
  • الميزات:
FeaturesDict({
    'hypothesis': Text(shape=(), dtype=tf.string),
    'idx': tf.int32,
    'label': ClassLabel(shape=(), dtype=tf.int64, num_classes=3),
    'premise': Text(shape=(), dtype=tf.string),
})
  • الاقتباس:
@InProceedings{N18-1101,
  author = "Williams, Adina
            and Nangia, Nikita
            and Bowman, Samuel",
  title = "A Broad-Coverage Challenge Corpus for
           Sentence Understanding through Inference",
  booktitle = "Proceedings of the 2018 Conference of
               the North American Chapter of the
               Association for Computational Linguistics:
               Human Language Technologies, Volume 1 (Long
               Papers)",
  year = "2018",
  publisher = "Association for Computational Linguistics",
  pages = "1112--1122",
  location = "New Orleans, Louisiana",
  url = "http://aclweb.org/anthology/N18-1101"
}
@article{bowman2015large,
  title={A large annotated corpus for learning natural language inference},
  author={Bowman, Samuel R and Angeli, Gabor and Potts, Christopher and Manning, Christopher D},
  journal={arXiv preprint arXiv:1508.05326},
  year={2015}
}
@inproceedings{wang2019glue,
  title={ {GLUE}: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding},
  author={Wang, Alex and Singh, Amanpreet and Michael, Julian and Hill, Felix and Levy, Omer and Bowman, Samuel R.},
  note={In the Proceedings of ICLR.},
  year={2019}
}

Note that each GLUE dataset has its own citation. Please see the source to see
the correct citation for each contained dataset.

الغراء / mnli_ غير متطابقة

  • وصف التكوين: التحقق من صحة غير متطابقة وانقسامات اختبار من MNLI. راجع BuilderConfig "mnli" للحصول على معلومات إضافية.

  • الصفحة الرئيسية: http://www.nyu.edu/projects/bowman/multinli/

  • حجم التحميل: 298.29 MiB

  • بيانات حجم: 4.79 MiB

  • الإنشقاقات:

ينقسم أمثلة
'test' 9847
'validation' 9832
  • الميزات:
FeaturesDict({
    'hypothesis': Text(shape=(), dtype=tf.string),
    'idx': tf.int32,
    'label': ClassLabel(shape=(), dtype=tf.int64, num_classes=3),
    'premise': Text(shape=(), dtype=tf.string),
})
  • الاقتباس:
@InProceedings{N18-1101,
  author = "Williams, Adina
            and Nangia, Nikita
            and Bowman, Samuel",
  title = "A Broad-Coverage Challenge Corpus for
           Sentence Understanding through Inference",
  booktitle = "Proceedings of the 2018 Conference of
               the North American Chapter of the
               Association for Computational Linguistics:
               Human Language Technologies, Volume 1 (Long
               Papers)",
  year = "2018",
  publisher = "Association for Computational Linguistics",
  pages = "1112--1122",
  location = "New Orleans, Louisiana",
  url = "http://aclweb.org/anthology/N18-1101"
}
@article{bowman2015large,
  title={A large annotated corpus for learning natural language inference},
  author={Bowman, Samuel R and Angeli, Gabor and Potts, Christopher and Manning, Christopher D},
  journal={arXiv preprint arXiv:1508.05326},
  year={2015}
}
@inproceedings{wang2019glue,
  title={ {GLUE}: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding},
  author={Wang, Alex and Singh, Amanpreet and Michael, Julian and Hill, Felix and Levy, Omer and Bowman, Samuel R.},
  note={In the Proceedings of ICLR.},
  year={2019}
}

Note that each GLUE dataset has its own citation. Please see the source to see
the correct citation for each contained dataset.

الغراء / mnli_matched

  • وصف التكوين: التحقق من صحة المتطابقة والانقسامات اختبار من MNLI. راجع BuilderConfig "mnli" للحصول على معلومات إضافية.

  • الصفحة الرئيسية: http://www.nyu.edu/projects/bowman/multinli/

  • حجم التحميل: 298.29 MiB

  • بيانات حجم: 4.58 MiB

  • الإنشقاقات:

ينقسم أمثلة
'test' 9796
'validation' 9815
  • الميزات:
FeaturesDict({
    'hypothesis': Text(shape=(), dtype=tf.string),
    'idx': tf.int32,
    'label': ClassLabel(shape=(), dtype=tf.int64, num_classes=3),
    'premise': Text(shape=(), dtype=tf.string),
})
  • الاقتباس:
@InProceedings{N18-1101,
  author = "Williams, Adina
            and Nangia, Nikita
            and Bowman, Samuel",
  title = "A Broad-Coverage Challenge Corpus for
           Sentence Understanding through Inference",
  booktitle = "Proceedings of the 2018 Conference of
               the North American Chapter of the
               Association for Computational Linguistics:
               Human Language Technologies, Volume 1 (Long
               Papers)",
  year = "2018",
  publisher = "Association for Computational Linguistics",
  pages = "1112--1122",
  location = "New Orleans, Louisiana",
  url = "http://aclweb.org/anthology/N18-1101"
}
@article{bowman2015large,
  title={A large annotated corpus for learning natural language inference},
  author={Bowman, Samuel R and Angeli, Gabor and Potts, Christopher and Manning, Christopher D},
  journal={arXiv preprint arXiv:1508.05326},
  year={2015}
}
@inproceedings{wang2019glue,
  title={ {GLUE}: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding},
  author={Wang, Alex and Singh, Amanpreet and Michael, Julian and Hill, Felix and Levy, Omer and Bowman, Samuel R.},
  note={In the Proceedings of ICLR.},
  year={2019}
}

Note that each GLUE dataset has its own citation. Please see the source to see
the correct citation for each contained dataset.

الغراء / qnli

  • التكوين وصف: ستانفورد سؤال الإجابة الإدراجات هو مجموعة بيانات-الإجابة على سؤال تتألف من أزواج الفقرة المسألة، حيث واحدة من الجمل في الفقرة (المستمدة من ويكيبيديا) يحتوي على الإجابة على السؤال المقابلة (كتبه الحواشي). نقوم بتحويل المهمة إلى تصنيف زوج جمل من خلال تشكيل زوج بين كل سؤال وكل جملة في السياق المقابل ، وتصفية الأزواج ذات التداخل المعجمي المنخفض بين السؤال وجملة السياق. المهمة هي تحديد ما إذا كانت جملة السياق تحتوي على إجابة السؤال. تزيل هذه النسخة المعدلة من المهمة الأصلية شرط تحديد النموذج للإجابة الدقيقة ، ولكنها تزيل أيضًا الافتراضات المبسطة بأن الإجابة موجودة دائمًا في الإدخال وأن التداخل المعجمي هو إشارة موثوقة.

  • الصفحة الرئيسية: https://rajpurkar.github.io/SQuAD-explorer/

  • حجم التحميل: 10.14 MiB

  • بيانات حجم: 32.99 MiB

  • الإنشقاقات:

ينقسم أمثلة
'test' 5،463
'train' 104،743
'validation' 5،463
  • الميزات:
FeaturesDict({
    'idx': tf.int32,
    'label': ClassLabel(shape=(), dtype=tf.int64, num_classes=2),
    'question': Text(shape=(), dtype=tf.string),
    'sentence': Text(shape=(), dtype=tf.string),
})
  • الاقتباس:
@article{rajpurkar2016squad,
  title={Squad: 100,000+ questions for machine comprehension of text},
  author={Rajpurkar, Pranav and Zhang, Jian and Lopyrev, Konstantin and Liang, Percy},
  journal={arXiv preprint arXiv:1606.05250},
  year={2016}
}
@inproceedings{wang2019glue,
  title={ {GLUE}: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding},
  author={Wang, Alex and Singh, Amanpreet and Michael, Julian and Hill, Felix and Levy, Omer and Bowman, Samuel R.},
  note={In the Proceedings of ICLR.},
  year={2019}
}

Note that each GLUE dataset has its own citation. Please see the source to see
the correct citation for each contained dataset.

الغراء / rte

  • التكوين وصف: مجموعات البيانات إدراكا النصية الاستتباع (RTE) تأتي من سلسلة من التحديات توريث النصية السنوية. نقوم بدمج البيانات من RTE1 (Dagan et al.، 2006) و RTE2 (Bar Haim et al.، 2006) و RTE3 (Giampiccolo et al.، 2007) و RTE5 (Bentivogli et al.، 2009) .4 الأمثلة هي مبني على أساس الأخبار ونصوص ويكيبيديا. نقوم بتحويل جميع مجموعات البيانات إلى تقسيم من فئتين ، حيث بالنسبة لمجموعات البيانات المكونة من ثلاث فئات ، فإننا ننهار المحايد والتناقض إلى لا يستلزم ، من أجل الاتساق.

  • الصفحة الرئيسية: https://aclweb.org/aclwiki/Recognizing_Textual_Entailment

  • حجم التحميل: 680.81 KiB

  • بيانات حجم: 2.15 MiB

  • الإنشقاقات:

ينقسم أمثلة
'test' 3000
'train' 2490
'validation' 277
  • الميزات:
FeaturesDict({
    'idx': tf.int32,
    'label': ClassLabel(shape=(), dtype=tf.int64, num_classes=2),
    'sentence1': Text(shape=(), dtype=tf.string),
    'sentence2': Text(shape=(), dtype=tf.string),
})
  • الاقتباس:
@inproceedings{dagan2005pascal,
  title={The PASCAL recognising textual entailment challenge},
  author={Dagan, Ido and Glickman, Oren and Magnini, Bernardo},
  booktitle={Machine Learning Challenges Workshop},
  pages={177--190},
  year={2005},
  organization={Springer}
}
@inproceedings{bar2006second,
  title={The second pascal recognising textual entailment challenge},
  author={Bar-Haim, Roy and Dagan, Ido and Dolan, Bill and Ferro, Lisa and Giampiccolo, Danilo and Magnini, Bernardo and Szpektor, Idan},
  booktitle={Proceedings of the second PASCAL challenges workshop on recognising textual entailment},
  volume={6},
  number={1},
  pages={6--4},
  year={2006},
  organization={Venice}
}
@inproceedings{giampiccolo2007third,
  title={The third pascal recognizing textual entailment challenge},
  author={Giampiccolo, Danilo and Magnini, Bernardo and Dagan, Ido and Dolan, Bill},
  booktitle={Proceedings of the ACL-PASCAL workshop on textual entailment and paraphrasing},
  pages={1--9},
  year={2007},
  organization={Association for Computational Linguistics}
}
@inproceedings{bentivogli2009fifth,
  title={The Fifth PASCAL Recognizing Textual Entailment Challenge.},
  author={Bentivogli, Luisa and Clark, Peter and Dagan, Ido and Giampiccolo, Danilo},
  booktitle={TAC},
  year={2009}
}
@inproceedings{wang2019glue,
  title={ {GLUE}: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding},
  author={Wang, Alex and Singh, Amanpreet and Michael, Julian and Hill, Felix and Levy, Omer and Bowman, Samuel R.},
  note={In the Proceedings of ICLR.},
  year={2019}
}

Note that each GLUE dataset has its own citation. Please see the source to see
the correct citation for each contained dataset.

الغراء / wnli

  • التكوين وصف: إن فينوغراد مخطط التحدي (. يفيسك وآخرون، 2011) مهمة فهم المقروء فيه النظام يجب قراءة الجملة مع الضمير واختيار المرجع من أن الضمير من قائمة الخيارات. يتم إنشاء الأمثلة يدويًا لإحباط الطرق الإحصائية البسيطة: كل واحد يعتمد على المعلومات السياقية المقدمة بواسطة كلمة أو عبارة واحدة في الجملة. لتحويل المشكلة إلى تصنيف زوج جمل ، نقوم ببناء أزواج الجمل عن طريق استبدال الضمير الغامض بكل مرجع محتمل. وتتمثل المهمة في توقع ما إذا كانت الجملة التي بها الضمير المستبدل تستلزمها الجملة الأصلية. نحن نستخدم مجموعة تقييم صغيرة تتكون من أمثلة جديدة مشتقة من كتب خيالية تمت مشاركتها بشكل خاص من قبل مؤلفي المجموعة الأصلية. في حين أن مجموعة التدريب المضمنة متوازنة بين فئتين ، فإن مجموعة الاختبار غير متوازنة بينهما (65٪ لا تستلزم). أيضًا ، نظرًا لمراوغة البيانات ، فإن مجموعة التطوير معارضة: تتم مشاركة الفرضيات أحيانًا بين أمثلة التدريب والتطوير ، لذلك إذا كان النموذج يحفظ أمثلة التدريب ، فسوف يتنبأ بالتسمية الخاطئة في مثال مجموعة التطوير المقابلة. كما هو الحال مع QNLI ، يتم تقييم كل مثال على حدة ، لذلك لا يوجد تطابق منهجي بين درجة النموذج في هذه المهمة ودرجاتها في المهمة الأصلية غير المحولة. نحن نطلق على مجموعة البيانات المحولة WNLI (Winograd NLI).

  • الصفحة الرئيسية: https://cs.nyu.edu/faculty/davise/papers/WinogradSchemas/WS.html

  • حجم التحميل: 28.32 KiB

  • بيانات حجم: 198.88 KiB

  • الإنشقاقات:

ينقسم أمثلة
'test' 146
'train' 635
'validation' 71
  • الميزات:
FeaturesDict({
    'idx': tf.int32,
    'label': ClassLabel(shape=(), dtype=tf.int64, num_classes=2),
    'sentence1': Text(shape=(), dtype=tf.string),
    'sentence2': Text(shape=(), dtype=tf.string),
})
  • الاقتباس:
@inproceedings{levesque2012winograd,
  title={The winograd schema challenge},
  author={Levesque, Hector and Davis, Ernest and Morgenstern, Leora},
  booktitle={Thirteenth International Conference on the Principles of Knowledge Representation and Reasoning},
  year={2012}
}
@inproceedings{wang2019glue,
  title={ {GLUE}: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding},
  author={Wang, Alex and Singh, Amanpreet and Michael, Julian and Hill, Felix and Levy, Omer and Bowman, Samuel R.},
  note={In the Proceedings of ICLR.},
  year={2019}
}

Note that each GLUE dataset has its own citation. Please see the source to see
the correct citation for each contained dataset.

الغراء / الفأس

  • التكوين وصف: A بيانات تقييم برعاية يدويا لتحليل الحبيبات غرامة من أداء النظام على نطاق واسع من الظواهر اللغوية. تقوم مجموعة البيانات هذه بتقييم فهم الجملة من خلال مشاكل الاستدلال اللغوي الطبيعي (NLI). استخدم نموذجًا تم تدريبه على MulitNLI لإنتاج تنبؤات لمجموعة البيانات هذه.

  • الصفحة الرئيسية: https://gluebenchmark.com/diagnostics

  • حجم التحميل: 217.05 KiB

  • بيانات حجم: 299.16 KiB

  • الإنشقاقات:

ينقسم أمثلة
'test' 1،104
  • الميزات:
FeaturesDict({
    'hypothesis': Text(shape=(), dtype=tf.string),
    'idx': tf.int32,
    'label': ClassLabel(shape=(), dtype=tf.int64, num_classes=3),
    'premise': Text(shape=(), dtype=tf.string),
})
  • الاقتباس:
@inproceedings{wang2019glue,
  title={ {GLUE}: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding},
  author={Wang, Alex and Singh, Amanpreet and Michael, Julian and Hill, Felix and Levy, Omer and Bowman, Samuel R.},
  note={In the Proceedings of ICLR.},
  year={2019}
}

Note that each GLUE dataset has its own citation. Please see the source to see
the correct citation for each contained dataset.