- Descrição :
Wake Vision é um conjunto de dados grande e de alta qualidade com mais de 6 milhões de imagens, excedendo significativamente a escala e a diversidade dos conjuntos de dados tinyML atuais (100x). Este conjunto de dados inclui imagens com anotações sobre se cada imagem contém uma pessoa. Além disso, ele incorpora uma referência abrangente e refinada para avaliar a imparcialidade e a robustez, abrangendo gênero percebido, idade percebida, distância do assunto, condições de iluminação e representações. Os rótulos Wake Vision são derivados de anotações da Open Image licenciadas pela Google LLC sob a licença CC BY 4.0. As imagens estão listadas como tendo uma licença CC BY 2.0. Nota da Open Images: "embora tenhamos tentado identificar imagens licenciadas sob uma licença Creative Commons Attribution, não fazemos representações ou garantias em relação ao status da licença de cada imagem e você mesmo deve verificar a licença de cada imagem."
Página inicial : https://dataverse.harvard.edu/dataset.xhtml?persistentId=doi%3A10.7910%2FDVN%2F1HOPXC
Código fonte :
tfds.datasets.wake_vision.Builder
Versões :
-
1.0.0
(padrão): versão inicial dos conjuntos de dados do TensorFlow. Observe que isso é baseado na versão 2.0 do Wake Vision no Harvard Dataverse.
-
Tamanho do download :
Unknown size
Tamanho do conjunto de dados :
Unknown size
Armazenado em cache automaticamente ( documentação ): Desconhecido
Divisões :
Dividir | Exemplos |
---|
- Estrutura de recursos :
FeaturesDict({
'age_unknown': ClassLabel(shape=(), dtype=int64, num_classes=2),
'body_part': ClassLabel(shape=(), dtype=int64, num_classes=2),
'bright': ClassLabel(shape=(), dtype=int64, num_classes=2),
'dark': ClassLabel(shape=(), dtype=int64, num_classes=2),
'depiction': ClassLabel(shape=(), dtype=int64, num_classes=2),
'far': ClassLabel(shape=(), dtype=int64, num_classes=2),
'filename': Text(shape=(), dtype=string),
'gender_unknown': ClassLabel(shape=(), dtype=int64, num_classes=2),
'image': Image(shape=(None, None, 3), dtype=uint8),
'medium_distance': ClassLabel(shape=(), dtype=int64, num_classes=2),
'middle_age': ClassLabel(shape=(), dtype=int64, num_classes=2),
'near': ClassLabel(shape=(), dtype=int64, num_classes=2),
'non-person_depiction': ClassLabel(shape=(), dtype=int64, num_classes=2),
'non-person_non-depiction': ClassLabel(shape=(), dtype=int64, num_classes=2),
'normal_lighting': ClassLabel(shape=(), dtype=int64, num_classes=2),
'older': ClassLabel(shape=(), dtype=int64, num_classes=2),
'person': ClassLabel(shape=(), dtype=int64, num_classes=2),
'person_depiction': ClassLabel(shape=(), dtype=int64, num_classes=2),
'predominantly_female': ClassLabel(shape=(), dtype=int64, num_classes=2),
'predominantly_male': ClassLabel(shape=(), dtype=int64, num_classes=2),
'young': ClassLabel(shape=(), dtype=int64, num_classes=2),
})
- Documentação de recursos :
Recurso | Aula | Forma | Tipo D | Descrição |
---|---|---|---|---|
RecursosDict | ||||
idade_desconhecida | ClassLabel | int64 | ||
parte_corpo | ClassLabel | int64 | ||
brilhante | ClassLabel | int64 | ||
escuro | ClassLabel | int64 | ||
representação | ClassLabel | int64 | ||
distante | ClassLabel | int64 | ||
nome do arquivo | Texto | corda | ||
gênero_desconhecido | ClassLabel | int64 | ||
imagem | Imagem | (Nenhum, Nenhum, 3) | uint8 | |
distância_média | ClassLabel | int64 | ||
meia-idade | ClassLabel | int64 | ||
aproximar | ClassLabel | int64 | ||
representação_não-pessoal | ClassLabel | int64 | ||
não-pessoa_não-descrição | ClassLabel | int64 | ||
iluminação_normal | ClassLabel | int64 | ||
mais velho | ClassLabel | int64 | ||
pessoa | ClassLabel | int64 | ||
representação_pessoa | ClassLabel | int64 | ||
predominantemente_feminino | ClassLabel | int64 | ||
predominantemente_masculino | ClassLabel | int64 | ||
jovem | ClassLabel | int64 |
Chaves supervisionadas (consulte o documento
as_supervised
):('image', 'person')
Figura ( tfds.show_examples ): Não suportado.
Exemplos ( tfds.as_dataframe ): Ausente.
Citação :
@article{banbury2024wake,
title={Wake Vision: A Large-scale, Diverse Dataset and Benchmark Suite for TinyML Person Detection},
author={Banbury, Colby and Njor, Emil and Stewart, Matthew and Warden, Pete and Kudlur, Manjunath and Jeffries, Nat and Fafoutis, Xenofon and Reddi, Vijay Janapa},
journal={arXiv preprint arXiv:2405.00892},
year={2024}
}