- Opis :
ImageNet-PI to przeetykietowana wersja standardowego zestawu danych ImageNet ILSVRC2012, w którym etykiety są dostarczane przez zbiór 16 głębokich sieci neuronowych o różnych architekturach, wstępnie wytrenowanych na standardzie ILSVRC2012. Dokładniej, wstępnie wytrenowane modele są pobierane z pliku tf.keras.applications.
Oprócz nowych etykiet ImageNet-PI udostępnia również metadane dotyczące procesu adnotacji w postaci informacji o modelach na ich etykietach oraz dodatkowych informacji o każdym modelu.
Więcej informacji znajdziesz na stronie: ImageNet-PI
Strona główna : https://github.com/google-research-datasets/imagenet_pi/
Kod źródłowy :
tfds.datasets.imagenet_pi.BuilderWersje :
-
1.0.0(domyślna): Wersja początkowa.
-
Rozmiar pobierania :
Unknown sizeRozmiar zbioru danych :
Unknown sizeInstrukcje ręcznego pobierania : W przypadku tego zestawu danych wymagane jest ręczne pobranie danych źródłowych do
download_config.manual_dir(domyślnie~/tensorflow_datasets/downloads/manual/):
Katalog manual_dir powinien zawierać dwa pliki: ILSVRC2012_img_train.tar i ILSVRC2012_img_val.tar. Aby uzyskać link do pobrania zestawu danych, należy się zarejestrować na stronie http://www.image-net.org/download-images .Automatyczne buforowanie ( dokumentacja ): Nieznane
Podziały :
| Podział | Przykłady |
|---|
- Struktura funkcji :
FeaturesDict({
'annotator_confidences': Tensor(shape=(16,), dtype=float32),
'annotator_labels': Tensor(shape=(16,), dtype=int64),
'clean_label': ClassLabel(shape=(), dtype=int64, num_classes=1000),
'file_name': Text(shape=(), dtype=string),
'image': Image(shape=(None, None, 3), dtype=uint8),
})
- Dokumentacja funkcji :
| Funkcja | Klasa | Kształt | Typ danych | Opis |
|---|---|---|---|---|
| FunkcjeSłownik | ||||
| adnotator_pewności | Napinacz | (16,) | float32 | |
| etykiety adnotatora | Napinacz | (16,) | int64 | |
| czysta_etykieta | Etykieta klasy | int64 | ||
| nazwa_pliku | Tekst | smyczkowy | ||
| obraz | Obraz | (Brak, Brak, 3) | uint8 |
Klucze nadzorowane (zobacz dokument
as_supervised):('image', 'annotator_labels')Rysunek ( tfds.show_examples ): Nieobsługiwany.
Przykłady ( tfds.as_dataframe ): Brak.
Cytat :
@inproceedings{tram,
author = {Mark Collier and
Rodolphe Jenatton and
Effrosyni Kokiopoulou and
Jesse Berent},
editor = {Kamalika Chaudhuri and
Stefanie Jegelka and
Le Song and
Csaba Szepesv{\'{a} }ri and
Gang Niu and
Sivan Sabato},
title = {Transfer and Marginalize: Explaining Away Label Noise with Privileged
Information},
booktitle = {International Conference on Machine Learning, {ICML} 2022, 17-23 July
2022, Baltimore, Maryland, {USA} },
series = {Proceedings of Machine Learning Research},
volume = {162},
pages = {4219--4237},
publisher = { {PMLR} },
year = {2022},
url = {https://proceedings.mlr.press/v162/collier22a.html},
}
@article{ILSVRC15,
Author = {Olga Russakovsky and Jia Deng and Hao Su and Jonathan Krause and Sanjeev Satheesh and Sean Ma and Zhiheng Huang and Andrej Karpathy and Aditya Khosla and Michael Bernstein and Alexander C. Berg and Li Fei-Fei},
Title = { {ImageNet Large Scale Visual Recognition Challenge} },
Year = {2015},
journal = {International Journal of Computer Vision (IJCV)},
doi = {10.1007/s11263-015-0816-y},
volume={115},
number={3},
pages={211-252}
}