- Descrizione:
CREMA-D è un set di dati audiovisivi per il riconoscimento delle emozioni. Il set di dati è costituito da espressioni emotive facciali e vocali in frasi pronunciate in una serie di stati emotivi di base (felice, triste, rabbia, paura, disgusto e neutralità). Sono stati raccolti 7.442 filmati di 91 attori con diverse origini etniche. Questa versione contiene solo il flusso audio della registrazione audiovisiva originale. I campioni sono suddivisi tra treno, convalida e test in modo che i campioni di ciascun altoparlante appartengano esattamente a una suddivisione.
Codice sorgente:
tfds.audio.CremaD
versioni:
-
1.0.0
(impostazione predefinita): No note di rilascio.
-
Dimensione del download:
579.25 MiB
Dimensione del set di dati:
1.65 GiB
Auto-cache ( documentazione ): No
divide:
Diviso | Esempi |
---|---|
'test' | 1.556 |
'train' | 5.144 |
'validation' | 738 |
- Caratteristiche:
FeaturesDict({
'audio': Audio(shape=(None,), dtype=tf.int64),
'label': ClassLabel(shape=(), dtype=tf.int64, num_classes=6),
'speaker_id': tf.string,
})
Tasti con supervisore (Vedi
as_supervised
doc ):('audio', 'label')
Figura ( tfds.show_examples ): non supportato.
Esempi ( tfds.as_dataframe ):
- citazione:
@article{cao2014crema,
title={ {CREMA-D}: Crowd-sourced emotional multimodal actors dataset},
author={Cao, Houwei and Cooper, David G and Keutmann, Michael K and Gur, Ruben C and Nenkova, Ani and Verma, Ragini},
journal={IEEE transactions on affective computing},
volume={5},
number={4},
pages={377--390},
year={2014},
publisher={IEEE}
}