- opis :
CREMA-D to zestaw danych audiowizualnych do rozpoznawania emocji. Zbiór danych składa się z mimicznych i wokalnych ekspresji emocjonalnych w zdaniach wypowiadanych w zakresie podstawowych stanów emocjonalnych (radość, smutek, złość, strach, wstręt i neutralność). Zebrano 7442 klipy przedstawiające 91 aktorów o różnym pochodzeniu etnicznym. To wydanie zawiera tylko strumień audio z oryginalnego nagrania audiowizualnego. Próbki są dzielone między pociąg, walidację i testowanie, tak aby próbki z każdego mówcy należały dokładnie do jednego podziału.
Dodatkowa dokumentacja : Przeglądaj dokumenty z kodem na
Strona główna : https://github.com/CheyneyComputerScience/CREMA-D
Kod źródłowy :
tfds.audio.CremaD
Wersje :
-
1.0.0
(domyślnie): Brak informacji o wersji.
-
Rozmiar pliku do pobrania :
579.25 MiB
Rozmiar zestawu danych :
1.65 GiB
Automatyczne buforowanie ( dokumentacja ): Nie
Podziały :
Rozdzielać | Przykłady |
---|---|
'test' | 1556 |
'train' | 5144 |
'validation' | 738 |
- Struktura funkcji :
FeaturesDict({
'audio': Audio(shape=(None,), dtype=int64),
'label': ClassLabel(shape=(), dtype=int64, num_classes=6),
'speaker_id': string,
})
- Dokumentacja funkcji :
Funkcja | Klasa | Kształt | Typ D | Opis |
---|---|---|---|---|
FunkcjeDict | ||||
audio | Audio | (Nic,) | int64 | |
etykieta | Etykieta klasy | int64 | ||
identyfikator_mówcy | Napinacz | strunowy |
Klucze nadzorowane (zobacz dokument
as_supervised
):('audio', 'label')
Rysunek ( tfds.show_examples ): Nieobsługiwany.
Przykłady ( tfds.as_dataframe ):
- Cytat :
@article{cao2014crema,
title={ {CREMA-D}: Crowd-sourced emotional multimodal actors dataset},
author={Cao, Houwei and Cooper, David G and Keutmann, Michael K and Gur, Ruben C and Nenkova, Ani and Verma, Ragini},
journal={IEEE transactions on affective computing},
volume={5},
number={4},
pages={377--390},
year={2014},
publisher={IEEE}
}