imagenet_v2
컬렉션을 사용해 정리하기
내 환경설정을 기준으로 콘텐츠를 저장하고 분류하세요.
ImageNet-v2는 원래 라벨링 프로토콜을 밀접하게 따라 수집된 ImageNet 테스트 세트(클래스당 10개)입니다. 각 이미지에는 최소 10명 이상의 MTurk 작업자가 라벨을 지정했으며, 특정 클래스에 대해 선택한 10개 이미지 중에서 어떤 이미지를 포함할지 선택하는 데 사용된 전략에 따라 세 가지 버전의 데이터 세트가 있습니다. 다양한 변형이 어떻게 컴파일되었는지에 대한 자세한 내용은 문서의 섹션 4를 참조하세요.
레이블 공간은 ImageNet2012와 동일합니다. 각 예는 다음 키가 포함된 사전으로 표시됩니다.
- 'image': 이미지, (H, W, 3)-텐서.
- 'label': [0, 1000) 범위의 정수입니다.
'file_name': 데이터세트 내의 예시를 식별하는 고유한 문자열입니다.
홈페이지 : https://github.com/modestyachts/ImageNetV2
소스 코드 : tfds.datasets.imagenet_v2.Builder
버전 :
-
1.0.0
: 초기 버전. -
2.0.0
: 파일이 업데이트되었습니다. -
3.0.0
(기본값): 절대 경로에서 데이터 디렉터리에 대한 상대 경로로 file_name을 수정합니다(예: "class_id/filename.jpg"). -
3.1.0
: Hugging Face의 리소스에 대한 새로운 URL입니다.
자동 캐시 ( 문서 ): 아니요
분할 :
FeaturesDict({
'file_name': Text(shape=(), dtype=string),
'image': Image(shape=(None, None, 3), dtype=uint8),
'label': ClassLabel(shape=(), dtype=int64, num_classes=1000),
})
특징 | 수업 | 모양 | Dtype | 설명 |
---|
| 특징Dict | | | |
파일 이름 | 텍스트 | | 끈 | |
영상 | 영상 | (없음, 없음, 3) | uint8 | |
상표 | 클래스 라벨 | | 정수64 | |
@inproceedings{recht2019imagenet,
title={Do ImageNet Classifiers Generalize to ImageNet?},
author={Recht, Benjamin and Roelofs, Rebecca and Schmidt, Ludwig and Shankar, Vaishaal},
booktitle={International Conference on Machine Learning},
pages={5389--5400},
year={2019}
}
imagenet_v2/일치-주파수(기본 구성)

imagenet_v2/임계값-0.7

imagenet_v2/topimages

달리 명시되지 않는 한 이 페이지의 콘텐츠에는 Creative Commons Attribution 4.0 라이선스에 따라 라이선스가 부여되며, 코드 샘플에는 Apache 2.0 라이선스에 따라 라이선스가 부여됩니다. 자세한 내용은 Google Developers 사이트 정책을 참조하세요. 자바는 Oracle 및/또는 Oracle 계열사의 등록 상표입니다.
최종 업데이트: 2024-06-01(UTC)
[null,null,["최종 업데이트: 2024-06-01(UTC)"],[],[],null,["# imagenet_v2\n\n\u003cbr /\u003e\n\n- **Description**:\n\nImageNet-v2 is an ImageNet test set (10 per class) collected by closely\nfollowing the original labelling protocol. Each image has been labelled by at\nleast 10 MTurk workers, possibly more, and depending on the strategy used to\nselect which images to include among the 10 chosen for the given class there are\nthree different versions of the dataset. Please refer to section four of the\npaper for more details on how the different variants were compiled.\n\nThe label space is the same as that of ImageNet2012. Each example is represented\nas a dictionary with the following keys:\n\n- 'image': The image, a (H, W, 3)-tensor.\n- 'label': An integer in the range \\[0, 1000).\n- 'file_name': A unique sting identifying the example within the dataset.\n\n- **Homepage** :\n \u003chttps://github.com/modestyachts/ImageNetV2\u003e\n\n- **Source code** :\n [`tfds.datasets.imagenet_v2.Builder`](https://github.com/tensorflow/datasets/tree/master/tensorflow_datasets/datasets/imagenet_v2/imagenet_v2_dataset_builder.py)\n\n- **Versions**:\n\n - `1.0.0`: Initial version.\n - `2.0.0`: Files updated.\n - **`3.0.0`** (default): Fix file_name, from absolute path to path relative to data directory, ie: \"class_id/filename.jpg\".\n - `3.1.0`: New URLs for resources from Hugging Face.\n- **Auto-cached**\n ([documentation](https://www.tensorflow.org/datasets/performances#auto-caching)):\n No\n\n- **Splits**:\n\n| Split | Examples |\n|----------|----------|\n| `'test'` | 10,000 |\n\n- **Feature structure**:\n\n FeaturesDict({\n 'file_name': Text(shape=(), dtype=string),\n 'image': Image(shape=(None, None, 3), dtype=uint8),\n 'label': ClassLabel(shape=(), dtype=int64, num_classes=1000),\n })\n\n- **Feature documentation**:\n\n| Feature | Class | Shape | Dtype | Description |\n|-----------|--------------|-----------------|--------|-------------|\n| | FeaturesDict | | | |\n| file_name | Text | | string | |\n| image | Image | (None, None, 3) | uint8 | |\n| label | ClassLabel | | int64 | |\n\n- **Supervised keys** (See\n [`as_supervised` doc](https://www.tensorflow.org/datasets/api_docs/python/tfds/load#args)):\n `('image', 'label')`\n\n- **Citation**:\n\n @inproceedings{recht2019imagenet,\n title={Do ImageNet Classifiers Generalize to ImageNet?},\n author={Recht, Benjamin and Roelofs, Rebecca and Schmidt, Ludwig and Shankar, Vaishaal},\n booktitle={International Conference on Machine Learning},\n pages={5389--5400},\n year={2019}\n }\n\nimagenet_v2/matched-frequency (default config)\n----------------------------------------------\n\n- **Download size** : `1.18 GiB`\n\n- **Dataset size** : `1.16 GiB`\n\n- **Figure**\n ([tfds.show_examples](https://www.tensorflow.org/datasets/api_docs/python/tfds/visualization/show_examples)):\n\n- **Examples** ([tfds.as_dataframe](https://www.tensorflow.org/datasets/api_docs/python/tfds/as_dataframe)):\n\nDisplay examples... \n\nimagenet_v2/threshold-0.7\n-------------------------\n\n- **Download size** : `1.16 GiB`\n\n- **Dataset size** : `1.15 GiB`\n\n- **Figure**\n ([tfds.show_examples](https://www.tensorflow.org/datasets/api_docs/python/tfds/visualization/show_examples)):\n\n- **Examples** ([tfds.as_dataframe](https://www.tensorflow.org/datasets/api_docs/python/tfds/as_dataframe)):\n\nDisplay examples... \n\nimagenet_v2/topimages\n---------------------\n\n- **Download size** : `1.16 GiB`\n\n- **Dataset size** : `1.14 GiB`\n\n- **Figure**\n ([tfds.show_examples](https://www.tensorflow.org/datasets/api_docs/python/tfds/visualization/show_examples)):\n\n- **Examples** ([tfds.as_dataframe](https://www.tensorflow.org/datasets/api_docs/python/tfds/as_dataframe)):\n\nDisplay examples..."]]