- Descripción :
Una versión actualizada de los datos del E2E NLG Challenge con MR limpios. Los datos E2E contienen representación de significado (MR) basada en actos de diálogo en el dominio del restaurante y hasta 5 referencias en lenguaje natural, que es lo que se necesita predecir.
Documentación adicional : Explore en Papers With Code
Página de inicio: https://github.com/tuetschek/e2e-cleaning
Código fuente :
tfds.datasets.e2e_cleaned.Builder
Versiones :
-
0.1.0
(predeterminado): Sin notas de la versión.
-
Tamaño de la descarga :
13.92 MiB
Tamaño del conjunto de datos :
14.70 MiB
Almacenamiento automático en caché ( documentación ): Sí
Divisiones :
Separar | Ejemplos |
---|---|
'test' | 4,693 |
'train' | 33,525 |
'validation' | 4,299 |
- Estructura de características :
FeaturesDict({
'input_text': FeaturesDict({
'table': Sequence({
'column_header': string,
'content': string,
'row_number': int16,
}),
}),
'target_text': string,
})
- Documentación de características :
Rasgo | Clase | Forma | Tipo D | Descripción |
---|---|---|---|---|
CaracterísticasDict | ||||
texto de entrada | CaracterísticasDict | |||
entrada_texto/tabla | Secuencia | |||
texto_de_entrada/tabla/encabezado_de_columna | Tensor | cuerda | ||
entrada_texto/tabla/contenido | Tensor | cuerda | ||
texto_de_entrada/tabla/número_de_fila | Tensor | int16 | ||
texto_objetivo | Tensor | cuerda |
Teclas supervisadas (Ver
as_supervised
doc ):('input_text', 'target_text')
Figura ( tfds.show_examples ): no compatible.
Ejemplos ( tfds.as_dataframe ):
- Cita :
@inproceedings{dusek-etal-2019-semantic,
title = "Semantic Noise Matters for Neural Natural Language Generation",
author = "Du{\v{s} }ek, Ond{\v{r} }ej and
Howcroft, David M. and
Rieser, Verena",
booktitle = "Proceedings of the 12th International Conference on Natural Language Generation",
month = oct # "{--}" # nov,
year = "2019",
address = "Tokyo, Japan",
publisher = "Association for Computational Linguistics",
url = "https://www.aclweb.org/anthology/W19-8652",
doi = "10.18653/v1/W19-8652",
pages = "421--426",
abstract = "Neural natural language generation (NNLG) systems are known for their pathological outputs, i.e. generating text which is unrelated to the input specification. In this paper, we show the impact of semantic noise on state-of-the-art NNLG models which implement different semantic control mechanisms. We find that cleaned data can improve semantic correctness by up to 97{\%}, while maintaining fluency. We also find that the most common error is omitting information, rather than hallucination.",
}