- תיאור :
מהדורת עדכון של נתוני E2E NLG Challenge עם MRs מנוקים. נתוני ה-E2E מכילים ייצוג דיאלוג מבוסס משמעות (MR) בתחום המסעדה ועד 5 הפניות בשפה טבעית, וזה מה שצריך לחזות.
תיעוד נוסף : חקור על ניירות עם קוד
קוד מקור :
tfds.datasets.e2e_cleaned.Builder
גרסאות :
-
0.1.0
(ברירת מחדל): אין הערות שחרור.
-
גודל הורדה :
13.92 MiB
גודל מערך נתונים :
14.70 MiB
שמור אוטומטי במטמון ( תיעוד ): כן
פיצולים :
לְפַצֵל | דוגמאות |
---|---|
'test' | 4,693 |
'train' | 33,525 |
'validation' | 4,299 |
- מבנה תכונה :
FeaturesDict({
'input_text': FeaturesDict({
'table': Sequence({
'column_header': string,
'content': string,
'row_number': int16,
}),
}),
'target_text': string,
})
- תיעוד תכונה :
תכונה | מעמד | צוּרָה | Dtype | תיאור |
---|---|---|---|---|
FeaturesDict | ||||
הקלד טקסט | FeaturesDict | |||
input_text/טבלה | סדר פעולות | |||
input_text/table/column_header | מוֹתֵחַ | חוּט | ||
input_text/טבלה/תוכן | מוֹתֵחַ | חוּט | ||
input_text/table/row_number | מוֹתֵחַ | int16 | ||
target_text | מוֹתֵחַ | חוּט |
מפתחות בפיקוח (ראה
as_supervised
):('input_text', 'target_text')
איור ( tfds.show_examples ): לא נתמך.
דוגמאות ( tfds.as_dataframe ):
- ציטוט :
@inproceedings{dusek-etal-2019-semantic,
title = "Semantic Noise Matters for Neural Natural Language Generation",
author = "Du{\v{s} }ek, Ond{\v{r} }ej and
Howcroft, David M. and
Rieser, Verena",
booktitle = "Proceedings of the 12th International Conference on Natural Language Generation",
month = oct # "{--}" # nov,
year = "2019",
address = "Tokyo, Japan",
publisher = "Association for Computational Linguistics",
url = "https://www.aclweb.org/anthology/W19-8652",
doi = "10.18653/v1/W19-8652",
pages = "421--426",
abstract = "Neural natural language generation (NNLG) systems are known for their pathological outputs, i.e. generating text which is unrelated to the input specification. In this paper, we show the impact of semantic noise on state-of-the-art NNLG models which implement different semantic control mechanisms. We find that cleaned data can improve semantic correctness by up to 97{\%}, while maintaining fluency. We also find that the most common error is omitting information, rather than hallucination.",
}