- opis :
Dane proceduralnie generowanych macierzy (PGM) z artykułu Measuring Abstract Reasoning in Neural Networks, Barrett, Hill, Santoro i in. 2018. Celem jest wywnioskowanie prawidłowej odpowiedzi z paneli kontekstowych na podstawie rozumowania abstrakcyjnego.
Aby użyć tego zestawu danych, pobierz wszystkie pliki *.tar.gz ze strony zestawu danych i umieść je w katalogu ~/tensorflow_datasets/abstract_reasoning/.
\(R\) oznacza zestaw typów relacji (progresja, XOR, OR, AND, spójna suma), \(O\) oznacza typy obiektów (kształt, linia), a \(A\) oznacza typy atrybutów (rozmiar, kolor, położenie, numer). Struktura macierzy,\(S\), jest zbiorem trójek \(S={[r, o, a]}\) , które określają wyzwanie stawiane przez konkretną macierz.
Dodatkowa dokumentacja : Przeglądaj dokumenty z kodem na
Strona główna : https://github.com/deepmind/abstract-reasoning-matrices
Kod źródłowy :
tfds.datasets.abstract_reasoning.Builder
Wersje :
-
1.0.0
(domyślnie): Brak informacji o wersji.
-
Rozmiar pliku do pobrania :
Unknown size
Instrukcje ręcznego pobierania : ten zestaw danych wymaga ręcznego pobrania danych źródłowych do katalogu
download_config.manual_dir
(domyślnie~/tensorflow_datasets/downloads/manual/
):
Dane można pobrać z https://console.cloud.google.com/storage/browser/ravens-matrices Umieść wszystkie pliki tar.gz w katalogu manual_dir.Automatyczne buforowanie ( dokumentacja ): Nie
Podziały :
Rozdzielać | Przykłady |
---|---|
'test' | 200 000 |
'train' | 1 200 000 |
'validation' | 20 000 |
- Struktura funkcji :
FeaturesDict({
'answers': Video(Image(shape=(160, 160, 1), dtype=uint8)),
'context': Video(Image(shape=(160, 160, 1), dtype=uint8)),
'filename': Text(shape=(), dtype=string),
'meta_target': Tensor(shape=(12,), dtype=int64),
'relation_structure_encoded': Tensor(shape=(4, 12), dtype=int64),
'target': ClassLabel(shape=(), dtype=int64, num_classes=8),
})
- Dokumentacja funkcji :
Funkcja | Klasa | Kształt | Typ D | Opis |
---|---|---|---|---|
FunkcjeDict | ||||
odpowiedzi | Wideo (obraz) | (8, 160, 160, 1) | uint8 | |
kontekst | Wideo (obraz) | (8, 160, 160, 1) | uint8 | |
Nazwa pliku | Tekst | strunowy | ||
meta_cel | Napinacz | (12,) | int64 | |
zakodowana_struktura_relacji | Napinacz | (4, 12) | int64 | |
cel | Etykieta klasy | int64 |
Klucze nadzorowane (Zobacz dokument
as_supervised
):None
Rysunek ( tfds.show_examples ): Nieobsługiwany.
Cytat :
@InProceedings{pmlr-v80-barrett18a,
title = {Measuring abstract reasoning in neural networks},
author = {Barrett, David and Hill, Felix and Santoro, Adam and Morcos, Ari and Lillicrap, Timothy},
booktitle = {Proceedings of the 35th International Conference on Machine Learning},
pages = {511--520},
year = {2018},
editor = {Dy, Jennifer and Krause, Andreas},
volume = {80},
series = {Proceedings of Machine Learning Research},
address = {Stockholmsmassan, Stockholm Sweden},
month = {10--15 Jul},
publisher = {PMLR},
pdf = {http://proceedings.mlr.press/v80/barrett18a/barrett18a.pdf},
url = {http://proceedings.mlr.press/v80/barrett18a.html},
abstract = {Whether neural networks can learn abstract reasoning or whetherthey merely rely on superficial statistics is a topic of recent debate. Here, we propose a dataset and challenge designed to probe abstract reasoning, inspired by a well-known human IQ test. To succeed at this challenge, models must cope with various generalisation 'regimes' in which the training data and test questions differ in clearly-defined ways. We show that popular models such as ResNets perform poorly, even when the training and test sets differ only minimally, and we present a novel architecture, with structure designed to encourage reasoning, that does significantly better. When we vary the way in which the test questions and training data differ, we find that our model is notably proficient at certain forms of generalisation, but notably weak at others. We further show that the model's ability to generalise improves markedly if it is trained to predict symbolic explanations for its answers. Altogether, we introduce and explore ways to both measure and induce stronger abstract reasoning in neural networks. Our freely-available dataset should motivate further progress in this direction.}
}
abstract_reasoning/neutral (domyślna konfiguracja)
Opis konfiguracji : Struktury kodujące macierze zarówno w
zbiory treningowe i testowe zawierają dowolne trójki \([r, o, a]\) dla \(r \\in R\),
\(o \\in O\)i \(a \\in A\). Zbiory uczące i testujące są rozłączne, tj
separacja występująca na poziomie zmiennych wejściowych (tj. pixel
manifestacje).Rozmiar zestawu danych :
42.02 GiB
Przykłady ( tfds.as_dataframe ):
rozumowanie_abstrakcyjne/interpolacja
Opis konfiguracji : Podobnie jak w neutralnym podziale, \(S\) składał się z dowolnych
trzykrotnie \([r, o, a]\). Do interpolacji, w zbiorze treningowym, gdy
atrybutem był „kolor” lub „rozmiar” (tj. uporządkowane atrybuty), wartościami
atrybuty były ograniczone do członków zbioru dyskretnego o parzystym indeksie,
podczas gdy w zbiorze testowym dozwolone były tylko wartości indeksowane nieparzyście. Zauważ, że wszystko
\(S\) zawierał potrójny \([r, o, a]\) z atrybutem color lub size .
Dlatego uogólnienie jest wymagane dla każdego pytania w zbiorze testowym.Rozmiar zestawu danych :
37.09 GiB
Przykłady ( tfds.as_dataframe ):
abstrakcyjne_rozumowanie/ekstrapolacja
Opis konfiguracji : taki sam jak w przypadku interpolacji, ale wartości
atrybuty były ograniczone do dolnej połowy zestawu dyskretnego podczas
treningu, podczas gdy w zbiorze testowym przyjęli wartości w górnej połowie.Rozmiar zestawu danych :
35.91 GiB
Przykłady ( tfds.as_dataframe ):
abstract_reasoning/attr.rel.pairs
Opis konfiguracji : Wszystkie \(S\) zawierały co najmniej dwie trójki,
\(([r_1,o_1,a_1],[r_2,o_2,a_2]) = (t_1, t_2)\), z których 400 jest wykonalnych. My
losowo przydzielono 360 do zbioru uczącego i 40 do zbioru testowego. Członkowie
\((t_1, t_2)\) z 40 trzymanych par nie wystąpiło razem w strukturach\(S\)
w zbiorze uczącym, a wszystkie struktury \(S\) miały co najmniej jedną taką parę
\((t_1, t_2)\) jako podzbiór.Rozmiar zestawu danych :
41.07 GiB
Przykłady ( tfds.as_dataframe ):
abstract_reasoning/attr.rels
Opis konfiguracji : W naszym zbiorze danych jest 29 możliwych unikalnych
trzykrotnie \([r,o,a]\). Przydzieliliśmy losowo siedem z nich do zestawu testowego,
ale takie, że każdy z atrybutów był reprezentowany dokładnie raz w tym zbiorze.
Te wytrzymywane trójki nigdy nie występowały w pytaniach w zbiorze treningowym i
każdy \(S\) w zbiorze testowym zawierał co najmniej jeden z nich.Rozmiar zestawu danych :
41.45 GiB
Przykłady ( tfds.as_dataframe ):
abstract_reasoning/attrs.pairs
Opis konfiguracji: \(S\) zawierał co najmniej dwie trójki. Jest 20
(nieuporządkowane) realne pary atrybutów \((a_1, a_2)\) takie, że dla niektórych
\(r_i, o_i, ([r_1,o_1,a_1],[r_2,o_2,a_2])\) to opłacalna potrójna para
\(([r_1,o_1,a_1],[r_2,o_2,a_2]) = (t_1, t_2)\). Przydzieliliśmy 16 takich par
na szkolenie i cztery na testy. Dla pary \((a_1, a_2)\) w zbiorze testowym,
\(S\) w zestawie szkoleniowym zawierał trójki z \(a_1\) lub \(a_2\). w teście
set, wszystkie \(S\) zawierały trójki z \(a_1\) i \(a_2\).Rozmiar zestawu danych :
40.98 GiB
Przykłady ( tfds.as_dataframe ):
abstract_reasoning/attrs.shape.color
Opis konfiguracji : wstrzymany atrybut shape-color. \(S\) in
zestaw uczący nie zawierał trójek z \(o\)=shape i \(a\)=colour.
Wszystkie struktury rządzące łamigłówkami w zbiorze testowym zawierały co najmniej jedną trójkę
z \(o\)=kształt i \(a\)=kolor.Rozmiar zestawu danych :
41.21 GiB
Przykłady ( tfds.as_dataframe ):
abstract_reasoning/attrs.line.type
Opis konfiguracji : wstrzymany atrybut typ linii. \(S\) in
zestaw uczący nie zawierał trójek z \(o\)=line i \(a\)=type.
Wszystkie struktury rządzące łamigłówkami w zbiorze testowym zawierały co najmniej jedną trójkę
z \(o\)=line i \(a\)=type.Rozmiar zestawu danych :
41.40 GiB
Przykłady ( tfds.as_dataframe ):