imagenet2012_multilabel

  • Mô tả :

Tập dữ liệu này chứa các hình ảnh xác thực ILSVRC-2012 (ImageNet) được chú thích với các nhãn nhiều lớp từ "Đánh giá độ chính xác của máy trên ImageNet" , ICML, 2020. Các nhãn nhiều lớp đã được đánh giá bởi một nhóm chuyên gia được đào tạo chuyên sâu về sự phức tạp của tinh- sự phân biệt lớp cụ thể trong hệ thống phân cấp lớp ImageNet (xem bài báo để biết thêm chi tiết). So với các nhãn gốc, các nhãn nhiều lớp đã được chuyên gia đánh giá này cho phép đánh giá độ chính xác mạch lạc hơn về mặt ngữ nghĩa.

Phiên bản 3.0.0 của tập dữ liệu này chứa nhiều nhãn được sửa hơn từ "Khi nào bột nhào trở thành bánh mì tròn? Phân tích các lỗi còn lại trên ImageNet cũng như phần tách ví dụ 68 của ImageNet-Major (ImageNet-M) trong 'imagenet-m'.

Chỉ 20.000 trong số 50.000 hình ảnh xác thực ImageNet có chú thích nhiều nhãn. Tập hợp nhiều nhãn được tạo ra lần đầu tiên bởi một thử nghiệm gồm 67 mô hình ImageNet được đào tạo, và sau đó từng dự đoán mô hình riêng lẻ được các chuyên gia chú thích theo cách thủ công là correct (nhãn phù hợp với hình ảnh), wrong (nhãn không chính xác đối với hình ảnh), hoặc unclear (không đạt được sự đồng thuận giữa các chuyên gia).

Ngoài ra, trong quá trình chú thích, ban chuyên gia đã xác định một tập hợp các hình ảnh có vấn đề . Hình ảnh có vấn đề nếu nó đáp ứng bất kỳ tiêu chí nào dưới đây:

  • Nhãn ImageNet ban đầu (nhãn top 1) không chính xác hoặc không rõ ràng
  • Hình ảnh là bản vẽ, tranh vẽ, phác thảo, phim hoạt hình hoặc được kết xuất bằng máy tính
  • Hình ảnh đã bị chỉnh sửa quá mức
  • Hình ảnh có nội dung không phù hợp

Các hình ảnh có vấn đề được bao gồm trong tập dữ liệu này nhưng nên được bỏ qua khi tính toán độ chính xác của nhiều nhãn. Ngoài ra, vì tập hợp 20.000 chú thích ban đầu là cân bằng lớp, nhưng tập hợp các hình ảnh có vấn đề thì không, chúng tôi khuyên bạn nên tính toán độ chính xác của mỗi lớp và sau đó tính trung bình chúng. Chúng tôi cũng khuyên bạn nên đếm một dự đoán là đúng nếu nó được đánh dấu là đúng hoặc không rõ ràng (tức là được khoan hồng với các nhãn không rõ ràng).

Một cách khả thi để làm điều này là với mã NumPy sau:

import tensorflow_datasets as tfds

ds = tfds.load('imagenet2012_multilabel', split='validation')

# We assume that predictions is a dictionary from file_name to a class index between 0 and 999

num_correct_per_class = {}
num_images_per_class = {}

for example in ds:
    # We ignore all problematic images
    if example[‘is_problematic’].numpy():
        continue

    # The label of the image in ImageNet
    cur_class = example['original_label'].numpy()

    # If we haven't processed this class yet, set the counters to 0
    if cur_class not in num_correct_per_class:
        num_correct_per_class[cur_class] = 0
        assert cur_class not in num_images_per_class
        num_images_per_class[cur_class] = 0

    num_images_per_class[cur_class] += 1

    # Get the predictions for this image
    cur_pred = predictions[example['file_name'].numpy()]

    # We count a prediction as correct if it is marked as correct or unclear
    # (i.e., we are lenient with the unclear labels)
    if cur_pred is in example['correct_multi_labels'].numpy() or cur_pred is in example['unclear_multi_labels'].numpy():
        num_correct_per_class[cur_class] += 1

# Check that we have collected accuracy data for each of the 1,000 classes
num_classes = 1000
assert len(num_correct_per_class) == num_classes
assert len(num_images_per_class) == num_classes

# Compute the per-class accuracies and then average them
final_avg = 0
for cid in range(num_classes):
  assert cid in num_correct_per_class
  assert cid in num_images_per_class
  final_avg += num_correct_per_class[cid] / num_images_per_class[cid]
final_avg /= num_classes

Tách ra Các ví dụ
'imagenet_m' 68
'validation' 20.000
  • Cấu trúc tính năng :
FeaturesDict({
    'correct_multi_labels': Sequence(ClassLabel(shape=(), dtype=tf.int64, num_classes=1000)),
    'file_name': Text(shape=(), dtype=tf.string),
    'image': Image(shape=(None, None, 3), dtype=tf.uint8),
    'is_problematic': tf.bool,
    'original_label': ClassLabel(shape=(), dtype=tf.int64, num_classes=1000),
    'unclear_multi_labels': Sequence(ClassLabel(shape=(), dtype=tf.int64, num_classes=1000)),
    'wrong_multi_labels': Sequence(ClassLabel(shape=(), dtype=tf.int64, num_classes=1000)),
})
  • Tài liệu tính năng :
Tính năng Lớp Hình dạng Loại Sự mô tả
Các tính năng
đúng_multi_labels Trình tự (ClassLabel) (Không có,) tf.int64
tên_tệp Chữ tf.string
hình ảnh Hình ảnh (Không có, Không có, 3) tf.uint8
is_problematic Tensor tf.bool
original_label ClassLabel tf.int64
clear_multi_labels Trình tự (ClassLabel) (Không có,) tf.int64
Sai_multi_labels Trình tự (ClassLabel) (Không có,) tf.int64

Hình dung

  • Trích dẫn :
@article{shankar2019evaluating,
  title={Evaluating Machine Accuracy on ImageNet},
  author={Vaishaal Shankar* and Rebecca Roelofs* and Horia Mania and Alex Fang and Benjamin Recht and Ludwig Schmidt},
  journal={ICML},
  year={2020},
  note={\url{http://proceedings.mlr.press/v119/shankar20c.html} }
}
@article{ImageNetChallenge,
  title={ {ImageNet} large scale visual recognition challenge},
  author={Olga Russakovsky and Jia Deng and Hao Su and Jonathan Krause
   and Sanjeev Satheesh and Sean Ma and Zhiheng Huang and Andrej Karpathy and Aditya Khosla and Michael Bernstein and
   Alexander C. Berg and Fei-Fei Li},
  journal={International Journal of Computer Vision},
  year={2015},
  note={\url{https://arxiv.org/abs/1409.0575} }
}
@inproceedings{ImageNet,
   author={Jia Deng and Wei Dong and Richard Socher and Li-Jia Li and Kai Li and Li Fei-Fei},
   booktitle={Conference on Computer Vision and Pattern Recognition (CVPR)},
   title={ {ImageNet}: A large-scale hierarchical image database},
   year={2009},
   note={\url{http://www.image-net.org/papers/imagenet_cvpr09.pdf} }
}
@article{vasudevan2022does,
  title={When does dough become a bagel? Analyzing the remaining mistakes on ImageNet},
  author={Vasudevan, Vijay and Caine, Benjamin and Gontijo-Lopes, Raphael and Fridovich-Keil, Sara and Roelofs, Rebecca},
  journal={arXiv preprint arXiv:2205.04596},
  year={2022}
}