imagenet_pi

  • Descrição :

O ImageNet-PI é uma versão reetiquetada do conjunto de dados padrão ImageNet ILSVRC2012, na qual os rótulos são fornecidos por uma coleção de 16 redes neurais profundas com diferentes arquiteturas, pré-treinadas no ILSVRC2012 padrão. Especificamente, os modelos pré-treinados são baixados de tf.keras.applications.

Além dos novos rótulos, o ImageNet-PI também fornece metadados sobre o processo de anotação, na forma de níveis de confiança dos modelos em seus rótulos e informações adicionais sobre cada modelo.

Para obter mais informações, consulte: ImageNet-PI

  • Página inicial : https://github.com/google-research-datasets/imagenet_pi/

  • Código-fonte : tfds.datasets.imagenet_pi.Builder

  • Versões :

    • 1.0.0 (padrão): Versão inicial.
  • Tamanho do download : Unknown size

  • Tamanho do conjunto de dados : Unknown size

  • Instruções para download manual : Este conjunto de dados requer que você baixe os dados de origem manualmente para o diretório download_config.manual_dir (o padrão é ~/tensorflow_datasets/downloads/manual/ ):
    O diretório manual_dir deve conter dois arquivos: ILSVRC2012_img_train.tar e ILSVRC2012_img_val.tar. É necessário se cadastrar em http://www.image-net.org/download-images para obter o link de download do conjunto de dados.

  • Armazenado em cache automaticamente ( documentação ): Desconhecido

  • Divisões :

Dividir Exemplos
  • Estrutura de recursos :
FeaturesDict({
    'annotator_confidences': Tensor(shape=(16,), dtype=float32),
    'annotator_labels': Tensor(shape=(16,), dtype=int64),
    'clean_label': ClassLabel(shape=(), dtype=int64, num_classes=1000),
    'file_name': Text(shape=(), dtype=string),
    'image': Image(shape=(None, None, 3), dtype=uint8),
})
  • Documentação da funcionalidade :
Recurso Aula Forma Tipo D Descrição
Dicionário de Recursos
confianças_do_anotador Tensor (16,) float32
rótulos_do_anotador Tensor (16,) int64
rótulo limpo Rótulo da classe int64
nome_do_arquivo Texto corda
imagem Imagem (Nenhum, Nenhum, 3) uint8
@inproceedings{tram,
  author    = {Mark Collier and
               Rodolphe Jenatton and
               Effrosyni Kokiopoulou and
               Jesse Berent},
  editor    = {Kamalika Chaudhuri and
               Stefanie Jegelka and
               Le Song and
               Csaba Szepesv{\'{a} }ri and
               Gang Niu and
               Sivan Sabato},
  title     = {Transfer and Marginalize: Explaining Away Label Noise with Privileged
               Information},
  booktitle = {International Conference on Machine Learning, {ICML} 2022, 17-23 July
               2022, Baltimore, Maryland, {USA} },
  series    = {Proceedings of Machine Learning Research},
  volume    = {162},
  pages     = {4219--4237},
  publisher = { {PMLR} },
  year      = {2022},
  url       = {https://proceedings.mlr.press/v162/collier22a.html},
}
@article{ILSVRC15,
Author = {Olga Russakovsky and Jia Deng and Hao Su and Jonathan Krause and Sanjeev Satheesh and Sean Ma and Zhiheng Huang and Andrej Karpathy and Aditya Khosla and Michael Bernstein and Alexander C. Berg and Li Fei-Fei},
Title = { {ImageNet Large Scale Visual Recognition Challenge} },
Year = {2015},
journal   = {International Journal of Computer Vision (IJCV)},
doi = {10.1007/s11263-015-0816-y},
volume={115},
number={3},
pages={211-252}
}