- opis:
CREMA-D to audiowizualny zestaw danych do rozpoznawania emocji. Zestaw danych składa się z wyrazów twarzy i głosu wyrażanych w zdaniach wypowiadanych w szeregu podstawowych stanów emocjonalnych (radość, smutek, złość, strach, obrzydzenie i neutralność). Zebrano 7442 klipy 91 aktorów o różnym pochodzeniu etnicznym. Ta wersja zawiera tylko strumień audio z oryginalnego nagrania audiowizualnego. Próbki są dzielone między trenowanie, walidację i testowanie, dzięki czemu próbki z każdego głośnika należą do dokładnie jednego podziału.
Strona domowa: https://github.com/CheyneyComputerScience/CREMA-D
Kod źródłowy:
tfds.audio.CremaD
wersje:
-
1.0.0
(domyślnie): Brak Uwagi do wydania.
-
Wielkość pliku:
579.25 MiB
Zbiór danych rozmiar:
1.65 GiB
Auto-buforowane ( dokumentacja ): Nie
dzieli:
Podział | Przykłady |
---|---|
'test' | 1,556 |
'train' | 5144 |
'validation' | 738 |
- Cechy:
FeaturesDict({
'audio': Audio(shape=(None,), dtype=tf.int64),
'label': ClassLabel(shape=(), dtype=tf.int64, num_classes=6),
'speaker_id': tf.string,
})
Klucze nadzorowane (patrz
as_supervised
doc ):('audio', 'label')
Rysunek ( tfds.show_examples ): Nie jest obsługiwany.
Przykłady ( tfds.as_dataframe ):
- cytat:
@article{cao2014crema,
title={ {CREMA-D}: Crowd-sourced emotional multimodal actors dataset},
author={Cao, Houwei and Cooper, David G and Keutmann, Michael K and Gur, Ruben C and Nenkova, Ani and Verma, Ragini},
journal={IEEE transactions on affective computing},
volume={5},
number={4},
pages={377--390},
year={2014},
publisher={IEEE}
}