imagenet_v2
Koleksiyonlar ile düzeninizi koruyun
İçeriği tercihlerinize göre kaydedin ve kategorilere ayırın.
ImageNet-v2, orijinal etiketleme protokolünü yakından takip ederek toplanan bir ImageNet test setidir (sınıf başına 10 adet). Her görüntü en az 10, muhtemelen daha fazla MTurk çalışanı tarafından etiketlenmiştir ve verilen sınıf için seçilen 10 görüntü arasında hangi görüntülerin dahil edileceğini seçmek için kullanılan stratejiye bağlı olarak veri kümesinin üç farklı versiyonu vardır. Farklı varyantların nasıl derlendiğine ilişkin daha fazla ayrıntı için lütfen makalenin dördüncü bölümüne bakın.
Etiket alanı ImageNet2012'ninkiyle aynıdır. Her örnek aşağıdaki anahtarlara sahip bir sözlük olarak temsil edilir:
- 'görüntü': Görüntü, a (H, W, 3)-tensörü.
- 'etiket': [0, 1000) aralığında bir tamsayı.
'dosya_adı': Veri kümesi içindeki örneği tanımlayan benzersiz bir dize.
Ana sayfa : https://github.com/modestyachts/ImageNetV2
Kaynak kodu : tfds.datasets.imagenet_v2.Builder
Sürümler :
-
1.0.0
: İlk sürüm. -
2.0.0
: Dosyalar güncellendi. -
3.0.0
(varsayılan): Dosya_adı'nı mutlak yoldan veri dizinine göre yola doğru düzeltin, yani: "sınıf_id/dosyaadı.jpg". -
3.1.0
: Hugging Face'in kaynakları için yeni URL'ler.
Otomatik önbelleğe alınmış ( belgeler ): Hayır
Bölünmeler :
Bölmek | Örnekler |
---|
'test' | 10.000 |
FeaturesDict({
'file_name': Text(shape=(), dtype=string),
'image': Image(shape=(None, None, 3), dtype=uint8),
'label': ClassLabel(shape=(), dtype=int64, num_classes=1000),
})
Özellik | Sınıf | Şekil | Dtipi | Tanım |
---|
| ÖzelliklerDict | | | |
dosya adı | Metin | | sicim | |
görüntü | Resim | (Yok, Yok, 3) | uint8 | |
etiket | SınıfEtiketi | | int64 | |
@inproceedings{recht2019imagenet,
title={Do ImageNet Classifiers Generalize to ImageNet?},
author={Recht, Benjamin and Roelofs, Rebecca and Schmidt, Ludwig and Shankar, Vaishaal},
booktitle={International Conference on Machine Learning},
pages={5389--5400},
year={2019}
}
imagenet_v2/matched-frequency (varsayılan yapılandırma)

imagenet_v2/threshold-0.7

imagenet_v2/topimages

Aksi belirtilmediği sürece bu sayfanın içeriği Creative Commons Atıf 4.0 Lisansı altında ve kod örnekleri Apache 2.0 Lisansı altında lisanslanmıştır. Ayrıntılı bilgi için Google Developers Site Politikaları'na göz atın. Java, Oracle ve/veya satış ortaklarının tescilli ticari markasıdır.
Son güncelleme tarihi: 2024-06-01 UTC.
[null,null,["Son güncelleme tarihi: 2024-06-01 UTC."],[],[],null,["# imagenet_v2\n\n\u003cbr /\u003e\n\n- **Description**:\n\nImageNet-v2 is an ImageNet test set (10 per class) collected by closely\nfollowing the original labelling protocol. Each image has been labelled by at\nleast 10 MTurk workers, possibly more, and depending on the strategy used to\nselect which images to include among the 10 chosen for the given class there are\nthree different versions of the dataset. Please refer to section four of the\npaper for more details on how the different variants were compiled.\n\nThe label space is the same as that of ImageNet2012. Each example is represented\nas a dictionary with the following keys:\n\n- 'image': The image, a (H, W, 3)-tensor.\n- 'label': An integer in the range \\[0, 1000).\n- 'file_name': A unique sting identifying the example within the dataset.\n\n- **Homepage** :\n \u003chttps://github.com/modestyachts/ImageNetV2\u003e\n\n- **Source code** :\n [`tfds.datasets.imagenet_v2.Builder`](https://github.com/tensorflow/datasets/tree/master/tensorflow_datasets/datasets/imagenet_v2/imagenet_v2_dataset_builder.py)\n\n- **Versions**:\n\n - `1.0.0`: Initial version.\n - `2.0.0`: Files updated.\n - **`3.0.0`** (default): Fix file_name, from absolute path to path relative to data directory, ie: \"class_id/filename.jpg\".\n - `3.1.0`: New URLs for resources from Hugging Face.\n- **Auto-cached**\n ([documentation](https://www.tensorflow.org/datasets/performances#auto-caching)):\n No\n\n- **Splits**:\n\n| Split | Examples |\n|----------|----------|\n| `'test'` | 10,000 |\n\n- **Feature structure**:\n\n FeaturesDict({\n 'file_name': Text(shape=(), dtype=string),\n 'image': Image(shape=(None, None, 3), dtype=uint8),\n 'label': ClassLabel(shape=(), dtype=int64, num_classes=1000),\n })\n\n- **Feature documentation**:\n\n| Feature | Class | Shape | Dtype | Description |\n|-----------|--------------|-----------------|--------|-------------|\n| | FeaturesDict | | | |\n| file_name | Text | | string | |\n| image | Image | (None, None, 3) | uint8 | |\n| label | ClassLabel | | int64 | |\n\n- **Supervised keys** (See\n [`as_supervised` doc](https://www.tensorflow.org/datasets/api_docs/python/tfds/load#args)):\n `('image', 'label')`\n\n- **Citation**:\n\n @inproceedings{recht2019imagenet,\n title={Do ImageNet Classifiers Generalize to ImageNet?},\n author={Recht, Benjamin and Roelofs, Rebecca and Schmidt, Ludwig and Shankar, Vaishaal},\n booktitle={International Conference on Machine Learning},\n pages={5389--5400},\n year={2019}\n }\n\nimagenet_v2/matched-frequency (default config)\n----------------------------------------------\n\n- **Download size** : `1.18 GiB`\n\n- **Dataset size** : `1.16 GiB`\n\n- **Figure**\n ([tfds.show_examples](https://www.tensorflow.org/datasets/api_docs/python/tfds/visualization/show_examples)):\n\n- **Examples** ([tfds.as_dataframe](https://www.tensorflow.org/datasets/api_docs/python/tfds/as_dataframe)):\n\nDisplay examples... \n\nimagenet_v2/threshold-0.7\n-------------------------\n\n- **Download size** : `1.16 GiB`\n\n- **Dataset size** : `1.15 GiB`\n\n- **Figure**\n ([tfds.show_examples](https://www.tensorflow.org/datasets/api_docs/python/tfds/visualization/show_examples)):\n\n- **Examples** ([tfds.as_dataframe](https://www.tensorflow.org/datasets/api_docs/python/tfds/as_dataframe)):\n\nDisplay examples... \n\nimagenet_v2/topimages\n---------------------\n\n- **Download size** : `1.16 GiB`\n\n- **Dataset size** : `1.14 GiB`\n\n- **Figure**\n ([tfds.show_examples](https://www.tensorflow.org/datasets/api_docs/python/tfds/visualization/show_examples)):\n\n- **Examples** ([tfds.as_dataframe](https://www.tensorflow.org/datasets/api_docs/python/tfds/as_dataframe)):\n\nDisplay examples..."]]