- Descripción :
CREMA-D es un conjunto de datos audiovisuales para el reconocimiento de emociones. El conjunto de datos consta de expresiones emocionales faciales y vocales en oraciones pronunciadas en una variedad de estados emocionales básicos (feliz, triste, enfadado, miedo, asco y neutral). Se recogieron 7.442 clips de 91 actores de diversos orígenes étnicos. Esta versión contiene solo la secuencia de audio de la grabación audiovisual original. Las muestras se dividen entre entrenamiento, validación y prueba para que las muestras de cada hablante pertenezcan exactamente a una división.
Documentación adicional : Explore en Papers With Code
Página de inicio: https://github.com/CheyneyComputerScience/CREMA-D
Código fuente :
tfds.audio.CremaD
Versiones :
-
1.0.0
(predeterminado): Sin notas de la versión.
-
Tamaño de la descarga :
579.25 MiB
Tamaño del conjunto de datos :
1.65 GiB
Almacenamiento automático en caché ( documentación ): No
Divisiones :
Separar | Ejemplos |
---|---|
'test' | 1,556 |
'train' | 5,144 |
'validation' | 738 |
- Estructura de características :
FeaturesDict({
'audio': Audio(shape=(None,), dtype=int64),
'label': ClassLabel(shape=(), dtype=int64, num_classes=6),
'speaker_id': string,
})
- Documentación de características :
Rasgo | Clase | Forma | Tipo D | Descripción |
---|---|---|---|---|
CaracterísticasDict | ||||
audio | Audio | (Ninguna,) | int64 | |
etiqueta | Etiqueta de clase | int64 | ||
altavoz_id | Tensor | cuerda |
Teclas supervisadas (Ver
as_supervised
):('audio', 'label')
Figura ( tfds.show_examples ): no compatible.
Ejemplos ( tfds.as_dataframe ):
- Cita :
@article{cao2014crema,
title={ {CREMA-D}: Crowd-sourced emotional multimodal actors dataset},
author={Cao, Houwei and Cooper, David G and Keutmann, Michael K and Gur, Ruben C and Nenkova, Ani and Verma, Ragini},
journal={IEEE transactions on affective computing},
volume={5},
number={4},
pages={377--390},
year={2014},
publisher={IEEE}
}