crema_d

  • opis:

CREMA-D to audiowizualny zestaw danych do rozpoznawania emocji. Zestaw danych składa się z wyrazów twarzy i głosu wyrażanych w zdaniach wypowiadanych w szeregu podstawowych stanów emocjonalnych (radość, smutek, złość, strach, obrzydzenie i neutralność). Zebrano 7442 klipy 91 aktorów o różnym pochodzeniu etnicznym. Ta wersja zawiera tylko strumień audio z oryginalnego nagrania audiowizualnego. Próbki są dzielone między trenowanie, walidację i testowanie, dzięki czemu próbki z każdego głośnika należą do dokładnie jednego podziału.

Podział Przykłady
'test' 1,556
'train' 5144
'validation' 738
  • Cechy:
FeaturesDict({
    'audio': Audio(shape=(None,), dtype=tf.int64),
    'label': ClassLabel(shape=(), dtype=tf.int64, num_classes=6),
    'speaker_id': tf.string,
})
  • cytat:
@article{cao2014crema,
  title={ {CREMA-D}: Crowd-sourced emotional multimodal actors dataset},
  author={Cao, Houwei and Cooper, David G and Keutmann, Michael K and Gur, Ruben C and Nenkova, Ani and Verma, Ragini},
  journal={IEEE transactions on affective computing},
  volume={5},
  number={4},
  pages={377--390},
  year={2014},
  publisher={IEEE}
}