- Descrição :
O ImageNet-PI é uma versão reetiquetada do conjunto de dados padrão ImageNet ILSVRC2012, na qual os rótulos são fornecidos por uma coleção de 16 redes neurais profundas com diferentes arquiteturas, pré-treinadas no ILSVRC2012 padrão. Especificamente, os modelos pré-treinados são baixados de tf.keras.applications.
Além dos novos rótulos, o ImageNet-PI também fornece metadados sobre o processo de anotação, na forma de níveis de confiança dos modelos em seus rótulos e informações adicionais sobre cada modelo.
Para obter mais informações, consulte: ImageNet-PI
Página inicial : https://github.com/google-research-datasets/imagenet_pi/
Código-fonte :
tfds.datasets.imagenet_pi.BuilderVersões :
-
1.0.0(padrão): Versão inicial.
-
Tamanho do download :
Unknown sizeTamanho do conjunto de dados :
Unknown sizeInstruções para download manual : Este conjunto de dados requer que você baixe os dados de origem manualmente para o diretório
download_config.manual_dir(o padrão é~/tensorflow_datasets/downloads/manual/):
O diretório manual_dir deve conter dois arquivos: ILSVRC2012_img_train.tar e ILSVRC2012_img_val.tar. É necessário se cadastrar em http://www.image-net.org/download-images para obter o link de download do conjunto de dados.Armazenado em cache automaticamente ( documentação ): Desconhecido
Divisões :
| Dividir | Exemplos |
|---|
- Estrutura de recursos :
FeaturesDict({
'annotator_confidences': Tensor(shape=(16,), dtype=float32),
'annotator_labels': Tensor(shape=(16,), dtype=int64),
'clean_label': ClassLabel(shape=(), dtype=int64, num_classes=1000),
'file_name': Text(shape=(), dtype=string),
'image': Image(shape=(None, None, 3), dtype=uint8),
})
- Documentação da funcionalidade :
| Recurso | Aula | Forma | Tipo D | Descrição |
|---|---|---|---|---|
| Dicionário de Recursos | ||||
| confianças_do_anotador | Tensor | (16,) | float32 | |
| rótulos_do_anotador | Tensor | (16,) | int64 | |
| rótulo limpo | Rótulo da classe | int64 | ||
| nome_do_arquivo | Texto | corda | ||
| imagem | Imagem | (Nenhum, Nenhum, 3) | uint8 |
Chaves supervisionadas (Consulte a documentação
as_supervised):('image', 'annotator_labels')Figura ( tfds.show_examples ): Não suportado.
Exemplos ( tfds.as_dataframe ): Ausentes.
Citação :
@inproceedings{tram,
author = {Mark Collier and
Rodolphe Jenatton and
Effrosyni Kokiopoulou and
Jesse Berent},
editor = {Kamalika Chaudhuri and
Stefanie Jegelka and
Le Song and
Csaba Szepesv{\'{a} }ri and
Gang Niu and
Sivan Sabato},
title = {Transfer and Marginalize: Explaining Away Label Noise with Privileged
Information},
booktitle = {International Conference on Machine Learning, {ICML} 2022, 17-23 July
2022, Baltimore, Maryland, {USA} },
series = {Proceedings of Machine Learning Research},
volume = {162},
pages = {4219--4237},
publisher = { {PMLR} },
year = {2022},
url = {https://proceedings.mlr.press/v162/collier22a.html},
}
@article{ILSVRC15,
Author = {Olga Russakovsky and Jia Deng and Hao Su and Jonathan Krause and Sanjeev Satheesh and Sean Ma and Zhiheng Huang and Andrej Karpathy and Aditya Khosla and Michael Bernstein and Alexander C. Berg and Li Fei-Fei},
Title = { {ImageNet Large Scale Visual Recognition Challenge} },
Year = {2015},
journal = {International Journal of Computer Vision (IJCV)},
doi = {10.1007/s11263-015-0816-y},
volume={115},
number={3},
pages={211-252}
}