- Descrição :
CREMA-D é um conjunto de dados audiovisuais para reconhecimento de emoções. O conjunto de dados consiste em expressões emocionais faciais e vocais em frases faladas em uma variedade de estados emocionais básicos (feliz, triste, raiva, medo, nojo e neutro). Foram coletados 7.442 clipes de 91 atores com diversas origens étnicas. Esta versão contém apenas o fluxo de áudio da gravação audiovisual original. As amostras são divididas entre treinamento, validação e teste para que as amostras de cada alto-falante pertençam exatamente a uma divisão.
Documentação Adicional : Explore em Papers With Code
Página inicial : https://github.com/CheyneyComputerScience/CREMA-D
Código -fonte:
tfds.audio.CremaD
Versões :
-
1.0.0
(padrão): sem notas de versão.
-
Tamanho do download :
579.25 MiB
Tamanho do conjunto de dados :
1.65 GiB
Armazenado em cache automaticamente ( documentação ): Não
Divisões :
Dividir | Exemplos |
---|---|
'test' | 1.556 |
'train' | 5.144 |
'validation' | 738 |
- Estrutura de recursos :
FeaturesDict({
'audio': Audio(shape=(None,), dtype=int64),
'label': ClassLabel(shape=(), dtype=int64, num_classes=6),
'speaker_id': string,
})
- Documentação do recurso:
Característica | Classe | Forma | Tipo D | Descrição |
---|---|---|---|---|
RecursosDict | ||||
áudio | áudio | (Nenhum,) | int64 | |
etiqueta | ClassLabel | int64 | ||
speaker_id | tensor | corda |
Chaves supervisionadas (consulte o documento
as_supervised
):('audio', 'label')
Figura ( tfds.show_examples ): Não suportado.
Exemplos ( tfds.as_dataframe ):
- Citação :
@article{cao2014crema,
title={ {CREMA-D}: Crowd-sourced emotional multimodal actors dataset},
author={Cao, Houwei and Cooper, David G and Keutmann, Michael K and Gur, Ruben C and Nenkova, Ani and Verma, Ragini},
journal={IEEE transactions on affective computing},
volume={5},
number={4},
pages={377--390},
year={2014},
publisher={IEEE}
}