- Descrição:
CREMA-D é um conjunto de dados audiovisuais para reconhecimento de emoções. O conjunto de dados consiste em expressões emocionais faciais e vocais em frases faladas em uma variedade de estados emocionais básicos (feliz, triste, raiva, medo, nojo e neutro). 7.442 clipes de 91 atores de diversas origens étnicas foram coletados. Esta versão contém apenas o fluxo de áudio da gravação audiovisual original. As amostras são divididas entre trem, validação e teste para que as amostras de cada alto-falante pertençam a exatamente uma divisão.
O código-fonte:
tfds.audio.CremaD
versões:
-
1.0.0
(padrão): Não há notas de lançamento.
-
Tamanho do download:
579.25 MiB
Tamanho do conjunto de dados:
1.65 GiB
Cache-Auto ( documentação ): Não
desdobramentos:
Dividir | Exemplos |
---|---|
'test' | 1.556 |
'train' | 5.144 |
'validation' | 738 |
- Características:
FeaturesDict({
'audio': Audio(shape=(None,), dtype=tf.int64),
'label': ClassLabel(shape=(), dtype=tf.int64, num_classes=6),
'speaker_id': tf.string,
})
Chaves supervisionado (Veja
as_supervised
doc ):('audio', 'label')
Figura ( tfds.show_examples ): Não suportado.
Exemplos ( tfds.as_dataframe ):
- citação:
@article{cao2014crema,
title={ {CREMA-D}: Crowd-sourced emotional multimodal actors dataset},
author={Cao, Houwei and Cooper, David G and Keutmann, Michael K and Gur, Ruben C and Nenkova, Ani and Verma, Ragini},
journal={IEEE transactions on affective computing},
volume={5},
number={4},
pages={377--390},
year={2014},
publisher={IEEE}
}