d4rl_adroit_door

  • Descrição :

D4RL é um benchmark de código aberto para aprendizagem por reforço offline. Ele fornece ambientes e conjuntos de dados padronizados para algoritmos de treinamento e benchmarking.

Os conjuntos de dados seguem o formato RLDS para representar etapas e episódios.

@misc{fu2020d4rl,
    title={D4RL: Datasets for Deep Data-Driven Reinforcement Learning},
    author={Justin Fu and Aviral Kumar and Ofir Nachum and George Tucker and Sergey Levine},
    year={2020},
    eprint={2004.07219},
    archivePrefix={arXiv},
    primaryClass={cs.LG}
}

d4rl_adroit_door/v0-human (configuração padrão)

  • Tamanho do download : 2.97 MiB

  • Tamanho do conjunto de dados : 3.36 MiB

  • Armazenado em cache automaticamente ( documentação ): Sim

  • Divisões :

Dividir Exemplos
'train' 50
  • Estrutura de recursos :
FeaturesDict({
    'steps': Dataset({
        'action': Tensor(shape=(28,), dtype=float32),
        'discount': float32,
        'infos': FeaturesDict({
            'qpos': Tensor(shape=(30,), dtype=float32),
            'qvel': Tensor(shape=(30,), dtype=float32),
        }),
        'is_first': bool,
        'is_last': bool,
        'is_terminal': bool,
        'observation': Tensor(shape=(39,), dtype=float32),
        'reward': float32,
    }),
})
  • Documentação de recursos :
Recurso Aula Forma Tipo D Descrição
RecursosDict
passos Conjunto de dados
etapas/ação Tensor (28,) float32
passos/desconto Tensor float32
etapas/informações RecursosDict
etapas/informações/qpos Tensor (30,) float32
passos/informações/qvel Tensor (30,) float32
passos/é_primeiro Tensor bool
passos/é_último Tensor bool
etapas/is_terminal Tensor bool
etapas/observação Tensor (39,) float32
passos/recompensa Tensor float32

d4rl_adroit_door/v0-clonado

  • Tamanho do download : 602.42 MiB

  • Tamanho do conjunto de dados : 497.47 MiB

  • Armazenado em cache automaticamente ( documentação ): Não

  • Divisões :

Dividir Exemplos
'train' 6.214
  • Estrutura de recursos :
FeaturesDict({
    'steps': Dataset({
        'action': Tensor(shape=(28,), dtype=float32),
        'discount': float64,
        'infos': FeaturesDict({
            'qpos': Tensor(shape=(30,), dtype=float64),
            'qvel': Tensor(shape=(30,), dtype=float64),
        }),
        'is_first': bool,
        'is_last': bool,
        'is_terminal': bool,
        'observation': Tensor(shape=(39,), dtype=float64),
        'reward': float64,
    }),
})
  • Documentação de recursos :
Recurso Aula Forma Tipo D Descrição
RecursosDict
passos Conjunto de dados
etapas/ação Tensor (28,) float32
passos/desconto Tensor float64
etapas/informações RecursosDict
etapas/informações/qpos Tensor (30,) float64
passos/informações/qvel Tensor (30,) float64
passos/é_primeiro Tensor bool
passos/é_último Tensor bool
etapas/is_terminal Tensor bool
etapas/observação Tensor (39,) float64
passos/recompensa Tensor float64

d4rl_adroit_door/v0-expert

  • Tamanho do download : 511.05 MiB

  • Tamanho do conjunto de dados : 710.30 MiB

  • Armazenado em cache automaticamente ( documentação ): Não

  • Divisões :

Dividir Exemplos
'train' 5.000
  • Estrutura de recursos :
FeaturesDict({
    'steps': Dataset({
        'action': Tensor(shape=(28,), dtype=float32),
        'discount': float32,
        'infos': FeaturesDict({
            'action_logstd': Tensor(shape=(28,), dtype=float32),
            'action_mean': Tensor(shape=(28,), dtype=float32),
            'qpos': Tensor(shape=(30,), dtype=float32),
            'qvel': Tensor(shape=(30,), dtype=float32),
        }),
        'is_first': bool,
        'is_last': bool,
        'is_terminal': bool,
        'observation': Tensor(shape=(39,), dtype=float32),
        'reward': float32,
    }),
})
  • Documentação de recursos :
Recurso Aula Forma Tipo D Descrição
RecursosDict
passos Conjunto de dados
etapas/ação Tensor (28,) float32
passos/desconto Tensor float32
etapas/informações RecursosDict
etapas/informações/action_logstd Tensor (28,) float32
etapas/informações/action_mean Tensor (28,) float32
etapas/informações/qpos Tensor (30,) float32
passos/informações/qvel Tensor (30,) float32
passos/é_primeiro Tensor bool
passos/é_último Tensor bool
etapas/is_terminal Tensor bool
passos/observação Tensor (39,) float32
passos/recompensa Tensor float32

d4rl_adroit_door/v1-human

  • Tamanho do download : 2.98 MiB

  • Tamanho do conjunto de dados : 3.42 MiB

  • Armazenado em cache automaticamente ( documentação ): Sim

  • Divisões :

Dividir Exemplos
'train' 25
  • Estrutura de recursos :
FeaturesDict({
    'steps': Dataset({
        'action': Tensor(shape=(28,), dtype=float32),
        'discount': float32,
        'infos': FeaturesDict({
            'door_body_pos': Tensor(shape=(3,), dtype=float32),
            'qpos': Tensor(shape=(30,), dtype=float32),
            'qvel': Tensor(shape=(30,), dtype=float32),
        }),
        'is_first': bool,
        'is_last': bool,
        'is_terminal': bool,
        'observation': Tensor(shape=(39,), dtype=float32),
        'reward': float32,
    }),
})
  • Documentação de recursos :
Recurso Aula Forma Tipo D Descrição
RecursosDict
passos Conjunto de dados
etapas/ação Tensor (28,) float32
passos/desconto Tensor float32
etapas/informações RecursosDict
passos/informações/door_body_pos Tensor (3,) float32
etapas/informações/qpos Tensor (30,) float32
passos/informações/qvel Tensor (30,) float32
passos/é_primeiro Tensor bool
passos/é_último Tensor bool
etapas/is_terminal Tensor bool
passos/observação Tensor (39,) float32
passos/recompensa Tensor float32

d4rl_adroit_door/v1-clonado

  • Tamanho do download : 280.72 MiB

  • Tamanho do conjunto de dados : 1.85 GiB

  • Armazenado em cache automaticamente ( documentação ): Não

  • Divisões :

Dividir Exemplos
'train' 4.358
  • Estrutura de recursos :
FeaturesDict({
    'algorithm': string,
    'policy': FeaturesDict({
        'fc0': FeaturesDict({
            'bias': Tensor(shape=(256,), dtype=float32),
            'weight': Tensor(shape=(39, 256), dtype=float32),
        }),
        'fc1': FeaturesDict({
            'bias': Tensor(shape=(256,), dtype=float32),
            'weight': Tensor(shape=(256, 256), dtype=float32),
        }),
        'last_fc': FeaturesDict({
            'bias': Tensor(shape=(28,), dtype=float32),
            'weight': Tensor(shape=(256, 28), dtype=float32),
        }),
        'nonlinearity': string,
        'output_distribution': string,
    }),
    'steps': Dataset({
        'action': Tensor(shape=(28,), dtype=float32),
        'discount': float32,
        'infos': FeaturesDict({
            'door_body_pos': Tensor(shape=(3,), dtype=float32),
            'qpos': Tensor(shape=(30,), dtype=float32),
            'qvel': Tensor(shape=(30,), dtype=float32),
        }),
        'is_first': bool,
        'is_last': bool,
        'is_terminal': bool,
        'observation': Tensor(shape=(39,), dtype=float32),
        'reward': float32,
    }),
})
  • Documentação de recursos :
Recurso Aula Forma Tipo D Descrição
RecursosDict
algoritmo Tensor corda
política RecursosDict
política/fc0 RecursosDict
política/fc0/bias Tensor (256,) float32
política/fc0/peso Tensor (39, 256) float32
política/fc1 RecursosDict
política/fc1/preconceito Tensor (256,) float32
política/fc1/peso Tensor (256, 256) float32
política/last_fc RecursosDict
política/last_fc/bias Tensor (28,) float32
política/last_fc/peso Tensor (256, 28) float32
política/não linearidade Tensor corda
política/output_distribution Tensor corda
passos Conjunto de dados
etapas/ação Tensor (28,) float32
passos/desconto Tensor float32
etapas/informações RecursosDict
passos/informações/door_body_pos Tensor (3,) float32
etapas/informações/qpos Tensor (30,) float32
passos/informações/qvel Tensor (30,) float32
passos/é_primeiro Tensor bool
passos/é_último Tensor bool
etapas/is_terminal Tensor bool
etapas/observação Tensor (39,) float32
passos/recompensa Tensor float32

d4rl_adroit_door/v1-expert

  • Tamanho do download : 511.22 MiB

  • Tamanho do conjunto de dados : 803.48 MiB

  • Armazenado em cache automaticamente ( documentação ): Não

  • Divisões :

Dividir Exemplos
'train' 5.000
  • Estrutura de recursos :
FeaturesDict({
    'algorithm': string,
    'policy': FeaturesDict({
        'fc0': FeaturesDict({
            'bias': Tensor(shape=(32,), dtype=float32),
            'weight': Tensor(shape=(32, 39), dtype=float32),
        }),
        'fc1': FeaturesDict({
            'bias': Tensor(shape=(32,), dtype=float32),
            'weight': Tensor(shape=(32, 32), dtype=float32),
        }),
        'last_fc': FeaturesDict({
            'bias': Tensor(shape=(28,), dtype=float32),
            'weight': Tensor(shape=(28, 32), dtype=float32),
        }),
        'last_fc_log_std': FeaturesDict({
            'bias': Tensor(shape=(28,), dtype=float32),
            'weight': Tensor(shape=(28, 32), dtype=float32),
        }),
        'nonlinearity': string,
        'output_distribution': string,
    }),
    'steps': Dataset({
        'action': Tensor(shape=(28,), dtype=float32),
        'discount': float32,
        'infos': FeaturesDict({
            'action_log_std': Tensor(shape=(28,), dtype=float32),
            'action_mean': Tensor(shape=(28,), dtype=float32),
            'door_body_pos': Tensor(shape=(3,), dtype=float32),
            'qpos': Tensor(shape=(30,), dtype=float32),
            'qvel': Tensor(shape=(30,), dtype=float32),
        }),
        'is_first': bool,
        'is_last': bool,
        'is_terminal': bool,
        'observation': Tensor(shape=(39,), dtype=float32),
        'reward': float32,
    }),
})
  • Documentação de recursos :
Recurso Aula Forma Tipo D Descrição
RecursosDict
algoritmo Tensor corda
política RecursosDict
política/fc0 RecursosDict
política/fc0/bias Tensor (32,) float32
política/fc0/peso Tensor (32, 39) float32
política/fc1 RecursosDict
política/fc1/preconceito Tensor (32,) float32
política/fc1/peso Tensor (32, 32) float32
política/last_fc RecursosDict
política/last_fc/bias Tensor (28,) float32
política/last_fc/peso Tensor (28, 32) float32
política/last_fc_log_std RecursosDict
política/last_fc_log_std/bias Tensor (28,) float32
política/last_fc_log_std/peso Tensor (28, 32) float32
política/não linearidade Tensor corda
política/output_distribution Tensor corda
passos Conjunto de dados
etapas/ação Tensor (28,) float32
passos/desconto Tensor float32
etapas/informações RecursosDict
etapas/informações/action_log_std Tensor (28,) float32
etapas/informações/action_mean Tensor (28,) float32
passos/informações/door_body_pos Tensor (3,) float32
etapas/informações/qpos Tensor (30,) float32
passos/informações/qvel Tensor (30,) float32
passos/é_primeiro Tensor bool
passos/é_último Tensor bool
etapas/is_terminal Tensor bool
etapas/observação Tensor (39,) float32
passos/recompensa Tensor float32