- Descrição :
SAVEE (Surrey Audio-Visual Expressed Emotion) é um conjunto de dados de reconhecimento de emoções. Consiste em gravações de 4 atores masculinos em 7 emoções diferentes, 480 expressões em inglês britânico no total. As sentenças foram escolhidas do corpus padrão TIMIT e balanceadas foneticamente para cada emoção. Esta versão contém apenas o fluxo de áudio da gravação audiovisual original.
Os dados são divididos de modo que o conjunto de treinamento consista em 2 alto-falantes, e tanto o conjunto de validação quanto o de teste consistem em amostras de 1 alto-falante, respectivamente.
Documentação Adicional : Explore em Papers With Code
Página inicial : http://kahlan.eps.surrey.ac.uk/savee/
Código -fonte:
tfds.datasets.savee.Builder
Versões :
-
1.0.0
(padrão): sem notas de versão.
-
Tamanho do download :
Unknown size
Tamanho do conjunto de dados :
259.15 MiB
Instruções de download manual : este conjunto de dados exige que você baixe os dados de origem manualmente em
download_config.manual_dir
(o padrão é~/tensorflow_datasets/downloads/manual/
):
manual_dir deve conter o arquivo AudioData.zip. Este arquivo deve estar em Data/Zip/AudioData.zip na pasta do conjunto de dados fornecida no registro. Você precisa se registrar em http://personal.ee.surrey.ac.uk/Personal/P.Jackson/SAVEE/Register.html para obter o link para baixar o conjunto de dados.Armazenado em cache automaticamente ( documentação ): Não
Divisões :
Dividir | Exemplos |
---|---|
'test' | 120 |
'train' | 240 |
'validation' | 120 |
- Estrutura de recursos :
FeaturesDict({
'audio': Audio(shape=(None,), dtype=int64),
'label': ClassLabel(shape=(), dtype=int64, num_classes=7),
'speaker_id': string,
})
- Documentação do recurso:
Funcionalidade | Aula | Forma | Tipo D | Descrição |
---|---|---|---|---|
RecursosDict | ||||
áudio | áudio | (Nenhum,) | int64 | |
rótulo | ClassLabel | int64 | ||
speaker_id | tensor | fragmento |
Chaves supervisionadas (consulte o documento
as_supervised
):('audio', 'label')
Figura ( tfds.show_examples ): Não compatível.
Exemplos ( tfds.as_dataframe ):
- Citação :
@inproceedings{Vlasenko_combiningframe,
author = {Vlasenko, Bogdan and Schuller, Bjorn and Wendemuth, Andreas and Rigoll, Gerhard},
year = {2007},
month = {01},
pages = {2249-2252},
title = {Combining frame and turn-level information for robust recognition of emotions within speech},
journal = {Proceedings of Interspeech}
}