- Descrizione :
Una versione aggiornata dei dati E2E NLG Challenge con MR puliti. I dati E2E contengono la rappresentazione del significato basata sull'atto del dialogo (MR) nel dominio del ristorante e fino a 5 riferimenti in linguaggio naturale, che è ciò che è necessario prevedere.
Documentazione aggiuntiva : Esplora documenti con codice
Homepage : https://github.com/tuetschek/e2e-cleaning
Codice sorgente :
tfds.datasets.e2e_cleaned.Builder
Versioni :
-
0.1.0
(impostazione predefinita): nessuna nota di rilascio.
-
Dimensione del download :
13.92 MiB
Dimensione del set di dati:
14.70 MiB
Auto-cache ( documentazione ): Sì
Divisioni :
Diviso | Esempi |
---|---|
'test' | 4.693 |
'train' | 33.525 |
'validation' | 4.299 |
- Struttura delle caratteristiche :
FeaturesDict({
'input_text': FeaturesDict({
'table': Sequence({
'column_header': string,
'content': string,
'row_number': int16,
}),
}),
'target_text': string,
})
- Documentazione delle funzionalità :
Caratteristica | Classe | Forma | Tipo D | Descrizione |
---|---|---|---|---|
CaratteristicheDict | ||||
testo di input | CaratteristicheDict | |||
testo_input/tabella | Sequenza | |||
input_text/table/column_header | Tensore | corda | ||
testo_input/tabella/contenuto | Tensore | corda | ||
testo_input/tabella/numero_riga | Tensore | int16 | ||
testo_destinazione | Tensore | corda |
Chiavi supervisionate (vedi
as_supervised
doc ):('input_text', 'target_text')
Figura ( tfds.show_examples ): non supportato.
Esempi ( tfds.as_dataframe ):
- Citazione :
@inproceedings{dusek-etal-2019-semantic,
title = "Semantic Noise Matters for Neural Natural Language Generation",
author = "Du{\v{s} }ek, Ond{\v{r} }ej and
Howcroft, David M. and
Rieser, Verena",
booktitle = "Proceedings of the 12th International Conference on Natural Language Generation",
month = oct # "{--}" # nov,
year = "2019",
address = "Tokyo, Japan",
publisher = "Association for Computational Linguistics",
url = "https://www.aclweb.org/anthology/W19-8652",
doi = "10.18653/v1/W19-8652",
pages = "421--426",
abstract = "Neural natural language generation (NNLG) systems are known for their pathological outputs, i.e. generating text which is unrelated to the input specification. In this paper, we show the impact of semantic noise on state-of-the-art NNLG models which implement different semantic control mechanisms. We find that cleaned data can improve semantic correctness by up to 97{\%}, while maintaining fluency. We also find that the most common error is omitting information, rather than hallucination.",
}