- توضیحات :
SAVEE (احساس بیان شده صوتی و تصویری Surrey) یک مجموعه داده تشخیص احساسات است. این شامل ضبط شده از 4 بازیگر مرد در 7 احساس مختلف، در مجموع 480 بیان انگلیسی بریتانیایی است. جملات از مجموعه استاندارد TIMIT انتخاب شدند و از نظر آوایی برای هر احساس متعادل شدند. این نسخه فقط شامل جریان صوتی از ضبط صوتی و تصویری اصلی است.
داده ها به گونه ای تقسیم می شوند که مجموعه آموزشی از 2 سخنران تشکیل شده است و هر دو مجموعه اعتبار سنجی و تست به ترتیب از نمونه هایی از 1 سخنران تشکیل شده است.
اسناد اضافی : کاوش در کاغذها با کد
صفحه اصلی : http://kahlan.eps.surrey.ac.uk/savee/
کد منبع :
tfds.datasets.savee.Builder
نسخه ها :
-
1.0.0
(پیش فرض): بدون یادداشت انتشار.
-
اندازه دانلود :
Unknown size
حجم مجموعه داده :
259.15 MiB
دستورالعملهای دانلود دستی : این مجموعه داده از شما میخواهد که دادههای منبع را به صورت دستی در
download_config.manual_dir
(پیشفرض به~/tensorflow_datasets/downloads/manual/
):
manual_dir باید حاوی فایل AudioData.zip باشد. این فایل باید در پوشه Data/Zip/AudioData.zip در پوشه داده ارائه شده در هنگام ثبت نام باشد. برای دریافت لینک دانلود مجموعه داده، باید در http://personal.ee.surrey.ac.uk/Personal/P.Jackson/SAVEE/Register.html ثبت نام کنید.ذخیره خودکار ( اسناد ): خیر
تقسیم ها :
شکاف | مثال ها |
---|---|
'test' | 120 |
'train' | 240 |
'validation' | 120 |
- ساختار ویژگی :
FeaturesDict({
'audio': Audio(shape=(None,), dtype=int64),
'label': ClassLabel(shape=(), dtype=int64, num_classes=7),
'speaker_id': string,
})
- مستندات ویژگی :
ویژگی | کلاس | شکل | نوع D | شرح |
---|---|---|---|---|
FeaturesDict | ||||
سمعی | سمعی | (هیچ یک،) | int64 | |
برچسب | ClassLabel | int64 | ||
speaker_id | تانسور | رشته |
کلیدهای نظارت شده (مشاهده
as_supervised
doc ):('audio', 'label')
شکل ( tfds.show_examples ): پشتیبانی نمی شود.
مثالها ( tfds.as_dataframe ):
- نقل قول :
@inproceedings{Vlasenko_combiningframe,
author = {Vlasenko, Bogdan and Schuller, Bjorn and Wendemuth, Andreas and Rigoll, Gerhard},
year = {2007},
month = {01},
pages = {2249-2252},
title = {Combining frame and turn-level information for robust recognition of emotions within speech},
journal = {Proceedings of Interspeech}
}