Google I / O là một kết quả hoàn hảo! Cập nhật các phiên TensorFlow Xem phiên

keo dán

  • Mô tả:

KEO, Tổng Ngôn ngữ Hiểu chuẩn đánh giá ( https://gluebenchmark.com/ ) là một tập hợp các nguồn lực cho đào tạo, đánh giá và phân tích ngôn ngữ tự nhiên hiểu được hệ thống.

keo / cola (cấu hình mặc định)

  • Config mô tả: Các Corpus của ngôn ngữ Sự chấp nhận bao gồm các bản án chấp nhận tiếng Anh rút ra từ cuốn sách và bài báo về lý thuyết ngôn ngữ. Mỗi ví dụ là một chuỗi các từ được chú thích xem đó có phải là một câu tiếng Anh đúng ngữ pháp hay không.

  • Trang chủ: https://nyu-mll.github.io/CoLA/

  • Dung lượng tải về: 368.14 KiB

  • Dataset kích thước: 965.49 KiB

  • tách:

Tách ra Các ví dụ
'test' 1,063
'train' 8.551
'validation' 1,043
  • Các tính năng:
FeaturesDict({
    'idx': tf.int32,
    'label': ClassLabel(shape=(), dtype=tf.int64, num_classes=2),
    'sentence': Text(shape=(), dtype=tf.string),
})
  • Trích dẫn:
@article{warstadt2018neural,
  title={Neural Network Acceptability Judgments},
  author={Warstadt, Alex and Singh, Amanpreet and Bowman, Samuel R},
  journal={arXiv preprint arXiv:1805.12471},
  year={2018}
}
@inproceedings{wang2019glue,
  title={ {GLUE}: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding},
  author={Wang, Alex and Singh, Amanpreet and Michael, Julian and Hill, Felix and Levy, Omer and Bowman, Samuel R.},
  note={In the Proceedings of ICLR.},
  year={2019}
}

Note that each GLUE dataset has its own citation. Please see the source to see
the correct citation for each contained dataset.

keo / sst2

  • Config mô tả: Các Niềm tin Stanford Treebank gồm câu từ đánh giá phim và chú thích con người của tình cảm của họ. Nhiệm vụ là dự đoán tình cảm của một câu đã cho. Chúng tôi sử dụng phân chia lớp hai chiều (khẳng định / phủ định) và chỉ sử dụng các nhãn cấp câu.

  • Trang chủ: https://nlp.stanford.edu/sentiment/index.html

  • Dung lượng tải về: 7.09 MiB

  • Dataset kích thước: 7.22 MiB

  • tách:

Tách ra Các ví dụ
'test' 1.821
'train' 67.349
'validation' 872
  • Các tính năng:
FeaturesDict({
    'idx': tf.int32,
    'label': ClassLabel(shape=(), dtype=tf.int64, num_classes=2),
    'sentence': Text(shape=(), dtype=tf.string),
})
  • Trích dẫn:
@inproceedings{socher2013recursive,
  title={Recursive deep models for semantic compositionality over a sentiment treebank},
  author={Socher, Richard and Perelygin, Alex and Wu, Jean and Chuang, Jason and Manning, Christopher D and Ng, Andrew and Potts, Christopher},
  booktitle={Proceedings of the 2013 conference on empirical methods in natural language processing},
  pages={1631--1642},
  year={2013}
}
@inproceedings{wang2019glue,
  title={ {GLUE}: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding},
  author={Wang, Alex and Singh, Amanpreet and Michael, Julian and Hill, Felix and Levy, Omer and Bowman, Samuel R.},
  note={In the Proceedings of ICLR.},
  year={2019}
}

Note that each GLUE dataset has its own citation. Please see the source to see
the correct citation for each contained dataset.

keo / mrpc

  • Config mô tả: Microsoft Research diễn giải Corpus (Dolan & Brockett, 2005) là một corpus các cặp câu tự động chiết xuất từ các nguồn tin tức trên mạng, với các chú thích con người cho dù các câu trong cặp là ngữ nghĩa tương đương.

  • Trang chủ: https://www.microsoft.com/en-us/download/details.aspx?id=52398

  • Dung lượng tải về: 1.43 MiB

  • Dataset kích thước: 1.74 MiB

  • tách:

Tách ra Các ví dụ
'test' 1.725
'train' 3,668
'validation' 408
  • Các tính năng:
FeaturesDict({
    'idx': tf.int32,
    'label': ClassLabel(shape=(), dtype=tf.int64, num_classes=2),
    'sentence1': Text(shape=(), dtype=tf.string),
    'sentence2': Text(shape=(), dtype=tf.string),
})
  • Trích dẫn:
@inproceedings{dolan2005automatically,
  title={Automatically constructing a corpus of sentential paraphrases},
  author={Dolan, William B and Brockett, Chris},
  booktitle={Proceedings of the Third International Workshop on Paraphrasing (IWP2005)},
  year={2005}
}
@inproceedings{wang2019glue,
  title={ {GLUE}: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding},
  author={Wang, Alex and Singh, Amanpreet and Michael, Julian and Hill, Felix and Levy, Omer and Bowman, Samuel R.},
  note={In the Proceedings of ICLR.},
  year={2019}
}

Note that each GLUE dataset has its own citation. Please see the source to see
the correct citation for each contained dataset.

keo / qqp

  • Config mô tả: Các Quora Câu hỏi Pairs2 tập dữ liệu là một tập hợp các cặp câu hỏi từ cộng đồng trang web câu hỏi-trả lời Quora. Nhiệm vụ là xác định xem một cặp câu hỏi có tương đương về mặt ngữ nghĩa hay không.

  • Trang chủ: https://data.quora.com/First-Quora-Dataset-Release-Question-Pairs

  • Dung lượng tải về: 39.76 MiB

  • Dataset kích thước: 150.37 MiB

  • tách:

Tách ra Các ví dụ
'test' 390,965
'train' 363.846
'validation' 40.430
  • Các tính năng:
FeaturesDict({
    'idx': tf.int32,
    'label': ClassLabel(shape=(), dtype=tf.int64, num_classes=2),
    'question1': Text(shape=(), dtype=tf.string),
    'question2': Text(shape=(), dtype=tf.string),
})
  • Trích dẫn:
@online{WinNT,
  author = {Iyer, Shankar and Dandekar, Nikhil and Csernai, Kornel},
  title = {First Quora Dataset Release: Question Pairs},
  year = 2017,
  url = {https://data.quora.com/First-Quora-Dataset-Release-Question-Pairs},
  urldate = {2019-04-03}
}
@inproceedings{wang2019glue,
  title={ {GLUE}: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding},
  author={Wang, Alex and Singh, Amanpreet and Michael, Julian and Hill, Felix and Levy, Omer and Bowman, Samuel R.},
  note={In the Proceedings of ICLR.},
  year={2019}
}

Note that each GLUE dataset has its own citation. Please see the source to see
the correct citation for each contained dataset.

keo / stsb

  • Config mô tả: Các Semantic nguyên bản tương đồng Benchmark (. Cer et al, 2017) là một tập hợp các cặp câu rút ra từ tiêu đề tin tức, video và hình ảnh chú thích, và dữ liệu suy luận ngôn ngữ tự nhiên. Mỗi cặp được chú thích bởi con người với điểm giống nhau từ 0 đến 5.

  • Trang chủ: http://ixa2.si.ehu.es/stswiki/index.php/STSbenchmark

  • Dung lượng tải về: 784.05 KiB

  • Dataset kích thước: 1.58 MiB

  • tách:

Tách ra Các ví dụ
'test' 1.379
'train' 5.749
'validation' 1.500
  • Các tính năng:
FeaturesDict({
    'idx': tf.int32,
    'label': tf.float32,
    'sentence1': Text(shape=(), dtype=tf.string),
    'sentence2': Text(shape=(), dtype=tf.string),
})
  • Trích dẫn:
@article{cer2017semeval,
  title={Semeval-2017 task 1: Semantic textual similarity-multilingual and cross-lingual focused evaluation},
  author={Cer, Daniel and Diab, Mona and Agirre, Eneko and Lopez-Gazpio, Inigo and Specia, Lucia},
  journal={arXiv preprint arXiv:1708.00055},
  year={2017}
}
@inproceedings{wang2019glue,
  title={ {GLUE}: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding},
  author={Wang, Alex and Singh, Amanpreet and Michael, Julian and Hill, Felix and Levy, Omer and Bowman, Samuel R.},
  note={In the Proceedings of ICLR.},
  year={2019}
}

Note that each GLUE dataset has its own citation. Please see the source to see
the correct citation for each contained dataset.

keo / mnli

  • Config mô tả: Multi-Thể loại ngôn ngữ tự nhiên suy luận Corpus là một tập hợp cộng đồng đóng góp của các cặp câu với chú thích entailment văn bản. Đưa ra một câu tiền đề và một câu giả thuyết, nhiệm vụ là dự đoán xem liệu tiền đề đó có chứa giả thuyết (kéo theo), mâu thuẫn với giả thuyết (mâu thuẫn) hay không (trung lập). Các câu tiền đề được thu thập từ mười nguồn khác nhau, bao gồm cả bài phát biểu được chép lại, tiểu thuyết và báo cáo của chính phủ. Chúng tôi sử dụng bộ thử nghiệm tiêu chuẩn mà chúng tôi lấy nhãn hiệu riêng từ các tác giả và đánh giá trên cả phần phù hợp (trong miền) và không khớp (miền chéo). Chúng tôi cũng sử dụng và đề xuất kho dữ liệu SNLI như 550 nghìn ví dụ về dữ liệu đào tạo bổ trợ.

  • Trang chủ: http://www.nyu.edu/projects/bowman/multinli/

  • Dung lượng tải về: 298.29 MiB

  • Dataset kích thước: 100.56 MiB

  • tách:

Tách ra Các ví dụ
'test_matched' 9,796
'test_mismatched' 9,847
'train' 392.702
'validation_matched' 9,815
'validation_mismatched' 9,832
  • Các tính năng:
FeaturesDict({
    'hypothesis': Text(shape=(), dtype=tf.string),
    'idx': tf.int32,
    'label': ClassLabel(shape=(), dtype=tf.int64, num_classes=3),
    'premise': Text(shape=(), dtype=tf.string),
})
  • Trích dẫn:
@InProceedings{N18-1101,
  author = "Williams, Adina
            and Nangia, Nikita
            and Bowman, Samuel",
  title = "A Broad-Coverage Challenge Corpus for
           Sentence Understanding through Inference",
  booktitle = "Proceedings of the 2018 Conference of
               the North American Chapter of the
               Association for Computational Linguistics:
               Human Language Technologies, Volume 1 (Long
               Papers)",
  year = "2018",
  publisher = "Association for Computational Linguistics",
  pages = "1112--1122",
  location = "New Orleans, Louisiana",
  url = "http://aclweb.org/anthology/N18-1101"
}
@article{bowman2015large,
  title={A large annotated corpus for learning natural language inference},
  author={Bowman, Samuel R and Angeli, Gabor and Potts, Christopher and Manning, Christopher D},
  journal={arXiv preprint arXiv:1508.05326},
  year={2015}
}
@inproceedings{wang2019glue,
  title={ {GLUE}: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding},
  author={Wang, Alex and Singh, Amanpreet and Michael, Julian and Hill, Felix and Levy, Omer and Bowman, Samuel R.},
  note={In the Proceedings of ICLR.},
  year={2019}
}

Note that each GLUE dataset has its own citation. Please see the source to see
the correct citation for each contained dataset.

keo / mnli_mismatching

  • Config mô tả: Việc xác nhận không phù hợp và chia tách kiểm tra từ MNLI. Xem BuilderConfig "mnli" để biết thêm thông tin.

  • Trang chủ: http://www.nyu.edu/projects/bowman/multinli/

  • Dung lượng tải về: 298.29 MiB

  • Dataset kích thước: 4.79 MiB

  • tách:

Tách ra Các ví dụ
'test' 9,847
'validation' 9,832
  • Các tính năng:
FeaturesDict({
    'hypothesis': Text(shape=(), dtype=tf.string),
    'idx': tf.int32,
    'label': ClassLabel(shape=(), dtype=tf.int64, num_classes=3),
    'premise': Text(shape=(), dtype=tf.string),
})
  • Trích dẫn:
@InProceedings{N18-1101,
  author = "Williams, Adina
            and Nangia, Nikita
            and Bowman, Samuel",
  title = "A Broad-Coverage Challenge Corpus for
           Sentence Understanding through Inference",
  booktitle = "Proceedings of the 2018 Conference of
               the North American Chapter of the
               Association for Computational Linguistics:
               Human Language Technologies, Volume 1 (Long
               Papers)",
  year = "2018",
  publisher = "Association for Computational Linguistics",
  pages = "1112--1122",
  location = "New Orleans, Louisiana",
  url = "http://aclweb.org/anthology/N18-1101"
}
@article{bowman2015large,
  title={A large annotated corpus for learning natural language inference},
  author={Bowman, Samuel R and Angeli, Gabor and Potts, Christopher and Manning, Christopher D},
  journal={arXiv preprint arXiv:1508.05326},
  year={2015}
}
@inproceedings{wang2019glue,
  title={ {GLUE}: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding},
  author={Wang, Alex and Singh, Amanpreet and Michael, Julian and Hill, Felix and Levy, Omer and Bowman, Samuel R.},
  note={In the Proceedings of ICLR.},
  year={2019}
}

Note that each GLUE dataset has its own citation. Please see the source to see
the correct citation for each contained dataset.

keo / mnli_mished

  • Config mô tả: Các xác nhận phù hợp và chia tách kiểm tra từ MNLI. Xem BuilderConfig "mnli" để biết thêm thông tin.

  • Trang chủ: http://www.nyu.edu/projects/bowman/multinli/

  • Dung lượng tải về: 298.29 MiB

  • Dataset kích thước: 4.58 MiB

  • tách:

Tách ra Các ví dụ
'test' 9,796
'validation' 9,815
  • Các tính năng:
FeaturesDict({
    'hypothesis': Text(shape=(), dtype=tf.string),
    'idx': tf.int32,
    'label': ClassLabel(shape=(), dtype=tf.int64, num_classes=3),
    'premise': Text(shape=(), dtype=tf.string),
})
  • Trích dẫn:
@InProceedings{N18-1101,
  author = "Williams, Adina
            and Nangia, Nikita
            and Bowman, Samuel",
  title = "A Broad-Coverage Challenge Corpus for
           Sentence Understanding through Inference",
  booktitle = "Proceedings of the 2018 Conference of
               the North American Chapter of the
               Association for Computational Linguistics:
               Human Language Technologies, Volume 1 (Long
               Papers)",
  year = "2018",
  publisher = "Association for Computational Linguistics",
  pages = "1112--1122",
  location = "New Orleans, Louisiana",
  url = "http://aclweb.org/anthology/N18-1101"
}
@article{bowman2015large,
  title={A large annotated corpus for learning natural language inference},
  author={Bowman, Samuel R and Angeli, Gabor and Potts, Christopher and Manning, Christopher D},
  journal={arXiv preprint arXiv:1508.05326},
  year={2015}
}
@inproceedings{wang2019glue,
  title={ {GLUE}: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding},
  author={Wang, Alex and Singh, Amanpreet and Michael, Julian and Hill, Felix and Levy, Omer and Bowman, Samuel R.},
  note={In the Proceedings of ICLR.},
  year={2019}
}

Note that each GLUE dataset has its own citation. Please see the source to see
the correct citation for each contained dataset.

keo / qnli

  • Config mô tả: Stanford Câu hỏi Trả lời Dataset là một tập dữ liệu câu hỏi-trả lời bao gồm các cặp câu hỏi-đoạn, nơi một trong những câu trong đoạn (rút ra từ Wikipedia) chứa câu trả lời cho câu hỏi tương ứng (được viết bởi một chú giải). Chúng tôi chuyển nhiệm vụ thành phân loại cặp câu bằng cách tạo thành một cặp giữa mỗi câu hỏi và mỗi câu trong ngữ cảnh tương ứng, và lọc ra các cặp có độ trùng lặp từ vựng thấp giữa câu hỏi và câu ngữ cảnh. Nhiệm vụ là xác định xem câu ngữ cảnh có chứa câu trả lời cho câu hỏi hay không. Phiên bản sửa đổi này của nhiệm vụ ban đầu loại bỏ yêu cầu mô hình chọn câu trả lời chính xác, nhưng cũng loại bỏ các giả định đơn giản hóa rằng câu trả lời luôn có trong đầu vào và sự trùng lặp từ vựng là một gợi ý đáng tin cậy.

  • Trang chủ: https://rajpurkar.github.io/SQuAD-explorer/

  • Dung lượng tải về: 10.14 MiB

  • Dataset kích thước: 32.99 MiB

  • tách:

Tách ra Các ví dụ
'test' 5.463
'train' 104.743
'validation' 5.463
  • Các tính năng:
FeaturesDict({
    'idx': tf.int32,
    'label': ClassLabel(shape=(), dtype=tf.int64, num_classes=2),
    'question': Text(shape=(), dtype=tf.string),
    'sentence': Text(shape=(), dtype=tf.string),
})
  • Trích dẫn:
@article{rajpurkar2016squad,
  title={Squad: 100,000+ questions for machine comprehension of text},
  author={Rajpurkar, Pranav and Zhang, Jian and Lopyrev, Konstantin and Liang, Percy},
  journal={arXiv preprint arXiv:1606.05250},
  year={2016}
}
@inproceedings{wang2019glue,
  title={ {GLUE}: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding},
  author={Wang, Alex and Singh, Amanpreet and Michael, Julian and Hill, Felix and Levy, Omer and Bowman, Samuel R.},
  note={In the Proceedings of ICLR.},
  year={2019}
}

Note that each GLUE dataset has its own citation. Please see the source to see
the correct citation for each contained dataset.

keo / rte

  • Config mô tả: Các Nhận Văn bản Entailment (RTE) bộ dữ liệu đến từ một loạt các thách thức entailment văn bản hàng năm. Chúng tôi kết hợp dữ liệu từ RTE1 (Dagan và cộng sự, 2006), RTE2 (Bar Haim và cộng sự, 2006), RTE3 (Giampiccolo và cộng sự, 2007), và RTE5 (Bentivogli và cộng sự, 2009). được xây dựng dựa trên tin tức và văn bản Wikipedia. Chúng tôi chuyển đổi tất cả các tập dữ liệu thành phân tách hai lớp, trong đó đối với tập dữ liệu ba lớp, chúng tôi thu gọn trung lập và mâu thuẫn thành không đòi hỏi, để có tính nhất quán.

  • Trang chủ: https://aclweb.org/aclwiki/Recognizing_Textual_Entailment

  • Dung lượng tải về: 680.81 KiB

  • Dataset kích thước: 2.15 MiB

  • tách:

Tách ra Các ví dụ
'test' 3.000
'train' 2.490
'validation' 277
  • Các tính năng:
FeaturesDict({
    'idx': tf.int32,
    'label': ClassLabel(shape=(), dtype=tf.int64, num_classes=2),
    'sentence1': Text(shape=(), dtype=tf.string),
    'sentence2': Text(shape=(), dtype=tf.string),
})
  • Trích dẫn:
@inproceedings{dagan2005pascal,
  title={The PASCAL recognising textual entailment challenge},
  author={Dagan, Ido and Glickman, Oren and Magnini, Bernardo},
  booktitle={Machine Learning Challenges Workshop},
  pages={177--190},
  year={2005},
  organization={Springer}
}
@inproceedings{bar2006second,
  title={The second pascal recognising textual entailment challenge},
  author={Bar-Haim, Roy and Dagan, Ido and Dolan, Bill and Ferro, Lisa and Giampiccolo, Danilo and Magnini, Bernardo and Szpektor, Idan},
  booktitle={Proceedings of the second PASCAL challenges workshop on recognising textual entailment},
  volume={6},
  number={1},
  pages={6--4},
  year={2006},
  organization={Venice}
}
@inproceedings{giampiccolo2007third,
  title={The third pascal recognizing textual entailment challenge},
  author={Giampiccolo, Danilo and Magnini, Bernardo and Dagan, Ido and Dolan, Bill},
  booktitle={Proceedings of the ACL-PASCAL workshop on textual entailment and paraphrasing},
  pages={1--9},
  year={2007},
  organization={Association for Computational Linguistics}
}
@inproceedings{bentivogli2009fifth,
  title={The Fifth PASCAL Recognizing Textual Entailment Challenge.},
  author={Bentivogli, Luisa and Clark, Peter and Dagan, Ido and Giampiccolo, Danilo},
  booktitle={TAC},
  year={2009}
}
@inproceedings{wang2019glue,
  title={ {GLUE}: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding},
  author={Wang, Alex and Singh, Amanpreet and Michael, Julian and Hill, Felix and Levy, Omer and Bowman, Samuel R.},
  note={In the Proceedings of ICLR.},
  year={2019}
}

Note that each GLUE dataset has its own citation. Please see the source to see
the correct citation for each contained dataset.

keo / wnli

  • Config mô tả: Các Winograd Schema Challenge (. Levesque et al, 2011) là một nhiệm vụ đọc hiểu trong đó một hệ thống phải đọc một câu với một đại từ và chọn referent của đại mà từ một danh sách các lựa chọn. Các ví dụ được xây dựng theo cách thủ công để phù hợp với các phương pháp thống kê đơn giản: Mỗi ví dụ phụ thuộc vào thông tin ngữ cảnh được cung cấp bởi một từ hoặc cụm từ đơn lẻ trong câu. Để chuyển vấn đề thành phân loại cặp câu, chúng tôi xây dựng các cặp câu bằng cách thay thế đại từ không rõ ràng với mỗi tham chiếu có thể. Nhiệm vụ là dự đoán xem câu có đại từ thay thế có bị kéo theo câu gốc hay không. Chúng tôi sử dụng một tập hợp đánh giá nhỏ bao gồm các ví dụ mới bắt nguồn từ các cuốn sách viễn tưởng đã được chia sẻ riêng tư bởi các tác giả của kho tài liệu gốc. Trong khi bộ đào tạo bao gồm được cân bằng giữa hai lớp, bộ bài kiểm tra không cân bằng giữa chúng (65% không yêu cầu). Ngoài ra, do sai sót về dữ liệu, tập hợp phát triển là nghịch đảo: các giả thuyết đôi khi được chia sẻ giữa các ví dụ đào tạo và phát triển, vì vậy nếu một mô hình ghi nhớ các ví dụ đào tạo, họ sẽ dự đoán sai nhãn trên ví dụ tập hợp phát triển tương ứng. Như với QNLI, mỗi ví dụ được đánh giá riêng biệt, do đó không có sự tương ứng có hệ thống giữa điểm của mô hình trong nhiệm vụ này và điểm của nó trên nhiệm vụ ban đầu chưa được chuyển đổi. Chúng tôi gọi tập dữ liệu đã chuyển đổi là WNLI (Winograd NLI).

  • Trang chủ: https://cs.nyu.edu/faculty/davise/papers/WinogradSchemas/WS.html

  • Dung lượng tải về: 28.32 KiB

  • Dataset kích thước: 198.88 KiB

  • tách:

Tách ra Các ví dụ
'test' 146
'train' 635
'validation' 71
  • Các tính năng:
FeaturesDict({
    'idx': tf.int32,
    'label': ClassLabel(shape=(), dtype=tf.int64, num_classes=2),
    'sentence1': Text(shape=(), dtype=tf.string),
    'sentence2': Text(shape=(), dtype=tf.string),
})
  • Trích dẫn:
@inproceedings{levesque2012winograd,
  title={The winograd schema challenge},
  author={Levesque, Hector and Davis, Ernest and Morgenstern, Leora},
  booktitle={Thirteenth International Conference on the Principles of Knowledge Representation and Reasoning},
  year={2012}
}
@inproceedings{wang2019glue,
  title={ {GLUE}: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding},
  author={Wang, Alex and Singh, Amanpreet and Michael, Julian and Hill, Felix and Levy, Omer and Bowman, Samuel R.},
  note={In the Proceedings of ICLR.},
  year={2019}
}

Note that each GLUE dataset has its own citation. Please see the source to see
the correct citation for each contained dataset.

keo / rìu

  • Config Mô tả: Một tay-giám tuyển tập dữ liệu đánh giá để phân tích hạt mịn hiệu suất hệ thống trên một loạt các hiện tượng ngôn ngữ. Bộ dữ liệu này đánh giá khả năng hiểu câu thông qua các bài toán Suy luận Ngôn ngữ Tự nhiên (NLI). Sử dụng một mô hình được đào tạo trên MulitNLI để đưa ra các dự đoán cho tập dữ liệu này.

  • Trang chủ: https://gluebenchmark.com/diagnostics

  • Dung lượng tải về: 217.05 KiB

  • Dataset kích thước: 299.16 KiB

  • tách:

Tách ra Các ví dụ
'test' 1.104
  • Các tính năng:
FeaturesDict({
    'hypothesis': Text(shape=(), dtype=tf.string),
    'idx': tf.int32,
    'label': ClassLabel(shape=(), dtype=tf.int64, num_classes=3),
    'premise': Text(shape=(), dtype=tf.string),
})
  • Trích dẫn:
@inproceedings{wang2019glue,
  title={ {GLUE}: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding},
  author={Wang, Alex and Singh, Amanpreet and Michael, Julian and Hill, Felix and Levy, Omer and Bowman, Samuel R.},
  note={In the Proceedings of ICLR.},
  year={2019}
}

Note that each GLUE dataset has its own citation. Please see the source to see
the correct citation for each contained dataset.