그잔
컬렉션을 사용해 정리하기
내 환경설정을 기준으로 콘텐츠를 저장하고 분류하세요.
데이터 세트는 각 30초 길이의 1000개 오디오 트랙으로 구성됩니다. 여기에는 각각 100개의 트랙으로 표시되는 10개의 장르가 포함되어 있습니다. 트랙은 모두 .wav 형식의 22050Hz 모노 16비트 오디오 파일입니다.
장르는 다음과 같습니다.
FeaturesDict({
'audio': Audio(shape=(None,), dtype=int64),
'audio/filename': Text(shape=(), dtype=string),
'label': ClassLabel(shape=(), dtype=int64, num_classes=10),
})
특징 | 수업 | 모양 | D타입 | 설명 |
---|
| 풍모Dict | | | |
오디오 | 오디오 | (없음,) | int64 | |
오디오/파일 이름 | 텍스트 | | 끈 | |
상표 | 클래스 레이블 | | int64 | |
@misc{tzanetakis_essl_cook_2001,
author = "Tzanetakis, George and Essl, Georg and Cook, Perry",
title = "Automatic Musical Genre Classification Of Audio Signals",
url = "http://ismir2001.ismir.net/pdf/tzanetakis.pdf",
publisher = "The International Society for Music Information Retrieval",
year = "2001"
}
달리 명시되지 않는 한 이 페이지의 콘텐츠에는 Creative Commons Attribution 4.0 라이선스에 따라 라이선스가 부여되며, 코드 샘플에는 Apache 2.0 라이선스에 따라 라이선스가 부여됩니다. 자세한 내용은 Google Developers 사이트 정책을 참조하세요. 자바는 Oracle 및/또는 Oracle 계열사의 등록 상표입니다.
최종 업데이트: 2022-12-06(UTC)
[null,null,["최종 업데이트: 2022-12-06(UTC)"],[],[],null,["# gtzan\n\n\u003cbr /\u003e\n\n- **Description**:\n\nThe dataset consists of 1000 audio tracks each 30 seconds long. It contains 10\ngenres, each represented by 100 tracks. The tracks are all 22050Hz Mono 16-bit\naudio files in .wav format.\n\nThe genres are:\n\n- blues\n- classical\n- country\n- disco\n- hiphop\n- jazz\n- metal\n- pop\n- reggae\n- rock\n\n- **Additional Documentation** :\n [Explore on Papers With Code\n north_east](https://paperswithcode.com/dataset/gtzan)\n\n- **Homepage** :\n \u003chttp://marsyas.info/index.html\u003e\n\n- **Source code** :\n [`tfds.audio.gtzan.GTZAN`](https://github.com/tensorflow/datasets/tree/master/tensorflow_datasets/audio/gtzan/gtzan.py)\n\n- **Versions**:\n\n - **`1.0.0`** (default): No release notes.\n- **Download size** : `1.14 GiB`\n\n- **Dataset size** : `3.71 GiB`\n\n- **Auto-cached**\n ([documentation](https://www.tensorflow.org/datasets/performances#auto-caching)):\n No\n\n- **Splits**:\n\n| Split | Examples |\n|-----------|----------|\n| `'train'` | 1,000 |\n\n- **Feature structure**:\n\n FeaturesDict({\n 'audio': Audio(shape=(None,), dtype=int64),\n 'audio/filename': Text(shape=(), dtype=string),\n 'label': ClassLabel(shape=(), dtype=int64, num_classes=10),\n })\n\n- **Feature documentation**:\n\n| Feature | Class | Shape | Dtype | Description |\n|----------------|--------------|---------|--------|-------------|\n| | FeaturesDict | | | |\n| audio | Audio | (None,) | int64 | |\n| audio/filename | Text | | string | |\n| label | ClassLabel | | int64 | |\n\n- **Supervised keys** (See\n [`as_supervised` doc](https://www.tensorflow.org/datasets/api_docs/python/tfds/load#args)):\n `('audio', 'label')`\n\n- **Figure**\n ([tfds.show_examples](https://www.tensorflow.org/datasets/api_docs/python/tfds/visualization/show_examples)):\n Not supported.\n\n- **Examples**\n ([tfds.as_dataframe](https://www.tensorflow.org/datasets/api_docs/python/tfds/as_dataframe)):\n\nDisplay examples... \n\n- **Citation**:\n\n @misc{tzanetakis_essl_cook_2001,\n author = \"Tzanetakis, George and Essl, Georg and Cook, Perry\",\n title = \"Automatic Musical Genre Classification Of Audio Signals\",\n url = \"http://ismir2001.ismir.net/pdf/tzanetakis.pdf\",\n publisher = \"The International Society for Music Information Retrieval\",\n year = \"2001\"\n }"]]