crema_d

  • รายละเอียด:

CREMA-D เป็นชุดข้อมูลภาพและเสียงสำหรับการจดจำอารมณ์ ชุดข้อมูลประกอบด้วยการแสดงออกทางอารมณ์ทางใบหน้าและทางเสียงในประโยคที่พูดในสภาวะทางอารมณ์พื้นฐานต่างๆ (มีความสุข เศร้า โกรธ กลัว รังเกียจ และเป็นกลาง) รวบรวมคลิปนักแสดง 91 คนจาก 7,442 คลิปที่มีภูมิหลังทางชาติพันธุ์ที่หลากหลาย รุ่นนี้มีเฉพาะสตรีมเสียงจากการบันทึกเสียงและภาพต้นฉบับเท่านั้น ตัวอย่างจะถูกแบ่งระหว่างรถไฟ การตรวจสอบ และการทดสอบ เพื่อให้ตัวอย่างจากผู้พูดแต่ละคนอยู่ในกลุ่มเดียวกัน

แยก ตัวอย่าง
'test' 1,556
'train' 5,144
'validation' 738
  • คุณสมบัติ:
FeaturesDict({
    'audio': Audio(shape=(None,), dtype=tf.int64),
    'label': ClassLabel(shape=(), dtype=tf.int64, num_classes=6),
    'speaker_id': tf.string,
})
  • อ้างอิง:
@article{cao2014crema,
  title={ {CREMA-D}: Crowd-sourced emotional multimodal actors dataset},
  author={Cao, Houwei and Cooper, David G and Keutmann, Michael K and Gur, Ruben C and Nenkova, Ani and Verma, Ragini},
  journal={IEEE transactions on affective computing},
  volume={5},
  number={4},
  pages={377--390},
  year={2014},
  publisher={IEEE}
}