crema_d
コレクションでコンテンツを整理
必要に応じて、コンテンツの保存と分類を行います。
CREMA-D は、感情認識用の視聴覚データ セットです。データセットは、さまざまな基本的な感情状態 (幸せ、悲しい、怒り、恐怖、嫌悪、中立) で話された文章の顔と声の感情表現で構成されています。多様な民族的背景を持つ 91 人の俳優の 7,442 のクリップが収集されました。このリリースには、元のオーディオビジュアル録音からのオーディオ ストリームのみが含まれています。サンプルは、各スピーカーからのサンプルが正確に 1 つの分割に属するように、トレーニング、検証、およびテストに分割されます。
スプリット | 例 |
---|
'test' | 1,556 |
'train' | 5,144 |
'validation' | 738 |
FeaturesDict({
'audio': Audio(shape=(None,), dtype=int64),
'label': ClassLabel(shape=(), dtype=int64, num_classes=6),
'speaker_id': string,
})
特徴 | クラス | 形 | Dtype | 説明 |
---|
| 特徴辞書 | | | |
オーディオ | オーディオ | (なし、) | int64 | |
ラベル | クラスラベル | | int64 | |
Speaker_id | テンソル | | ストリング | |
@article{cao2014crema,
title={ {CREMA-D}: Crowd-sourced emotional multimodal actors dataset},
author={Cao, Houwei and Cooper, David G and Keutmann, Michael K and Gur, Ruben C and Nenkova, Ani and Verma, Ragini},
journal={IEEE transactions on affective computing},
volume={5},
number={4},
pages={377--390},
year={2014},
publisher={IEEE}
}
特に記載のない限り、このページのコンテンツはクリエイティブ・コモンズの表示 4.0 ライセンスにより使用許諾されます。コードサンプルは Apache 2.0 ライセンスにより使用許諾されます。詳しくは、Google Developers サイトのポリシーをご覧ください。Java は Oracle および関連会社の登録商標です。
最終更新日 2022-12-06 UTC。
[null,null,["最終更新日 2022-12-06 UTC。"],[],[],null,["# crema_d\n\n\u003cbr /\u003e\n\n- **Description**:\n\nCREMA-D is an audio-visual data set for emotion recognition. The data set\nconsists of facial and vocal emotional expressions in sentences spoken in a\nrange of basic emotional states (happy, sad, anger, fear, disgust, and neutral).\n7,442 clips of 91 actors with diverse ethnic backgrounds were collected. This\nrelease contains only the audio stream from the original audio-visual recording.\nThe samples are splitted between train, validation and testing so that samples\nfrom each speaker belongs to exactly one split.\n\n- **Additional Documentation** :\n [Explore on Papers With Code\n north_east](https://paperswithcode.com/dataset/crema-d)\n\n- **Homepage** :\n \u003chttps://github.com/CheyneyComputerScience/CREMA-D\u003e\n\n- **Source code** :\n [`tfds.audio.CremaD`](https://github.com/tensorflow/datasets/tree/master/tensorflow_datasets/audio/crema_d.py)\n\n- **Versions**:\n\n - **`1.0.0`** (default): No release notes.\n- **Download size** : `579.25 MiB`\n\n- **Dataset size** : `1.65 GiB`\n\n- **Auto-cached**\n ([documentation](https://www.tensorflow.org/datasets/performances#auto-caching)):\n No\n\n- **Splits**:\n\n| Split | Examples |\n|----------------|----------|\n| `'test'` | 1,556 |\n| `'train'` | 5,144 |\n| `'validation'` | 738 |\n\n- **Feature structure**:\n\n FeaturesDict({\n 'audio': Audio(shape=(None,), dtype=int64),\n 'label': ClassLabel(shape=(), dtype=int64, num_classes=6),\n 'speaker_id': string,\n })\n\n- **Feature documentation**:\n\n| Feature | Class | Shape | Dtype | Description |\n|------------|--------------|---------|--------|-------------|\n| | FeaturesDict | | | |\n| audio | Audio | (None,) | int64 | |\n| label | ClassLabel | | int64 | |\n| speaker_id | Tensor | | string | |\n\n- **Supervised keys** (See\n [`as_supervised` doc](https://www.tensorflow.org/datasets/api_docs/python/tfds/load#args)):\n `('audio', 'label')`\n\n- **Figure**\n ([tfds.show_examples](https://www.tensorflow.org/datasets/api_docs/python/tfds/visualization/show_examples)):\n Not supported.\n\n- **Examples**\n ([tfds.as_dataframe](https://www.tensorflow.org/datasets/api_docs/python/tfds/as_dataframe)):\n\nDisplay examples... \n\n- **Citation**:\n\n @article{cao2014crema,\n title={ {CREMA-D}: Crowd-sourced emotional multimodal actors dataset},\n author={Cao, Houwei and Cooper, David G and Keutmann, Michael K and Gur, Ruben C and Nenkova, Ani and Verma, Ragini},\n journal={IEEE transactions on affective computing},\n volume={5},\n number={4},\n pages={377--390},\n year={2014},\n publisher={IEEE}\n }"]]