d4rl_adroit_relocate

  • Descrição :

D4RL é um benchmark de código aberto para aprendizagem por reforço offline. Ele fornece ambientes e conjuntos de dados padronizados para algoritmos de treinamento e benchmarking.

Os conjuntos de dados seguem o formato RLDS para representar etapas e episódios.

@misc{fu2020d4rl,
    title={D4RL: Datasets for Deep Data-Driven Reinforcement Learning},
    author={Justin Fu and Aviral Kumar and Ofir Nachum and George Tucker and Sergey Levine},
    year={2020},
    eprint={2004.07219},
    archivePrefix={arXiv},
    primaryClass={cs.LG}
}

d4rl_adroit_relocate/v0-human (configuração padrão)

  • Tamanho do download : 4.87 MiB

  • Tamanho do conjunto de dados : 5.48 MiB

  • Armazenado em cache automaticamente ( documentação ): Sim

  • Divisões :

Dividir Exemplos
'train' 60
  • Estrutura de recursos :
FeaturesDict({
    'steps': Dataset({
        'action': Tensor(shape=(30,), dtype=float32),
        'discount': float32,
        'infos': FeaturesDict({
            'qpos': Tensor(shape=(36,), dtype=float32),
            'qvel': Tensor(shape=(36,), dtype=float32),
        }),
        'is_first': bool,
        'is_last': bool,
        'is_terminal': bool,
        'observation': Tensor(shape=(39,), dtype=float32),
        'reward': float32,
    }),
})
  • Documentação de recursos :
Recurso Aula Forma Tipo D Descrição
RecursosDict
passos Conjunto de dados
etapas/ação Tensor (30,) float32
passos/desconto Tensor float32
etapas/informações RecursosDict
etapas/informações/qpos Tensor (36,) float32
passos/informações/qvel Tensor (36,) float32
passos/é_primeiro Tensor bool
passos/é_último Tensor bool
etapas/is_terminal Tensor bool
etapas/observação Tensor (39,) float32
passos/recompensa Tensor float32

d4rl_adroit_relocate/v0-clonado

  • Tamanho do download : 647.11 MiB

  • Tamanho do conjunto de dados : 550.50 MiB

  • Armazenado em cache automaticamente ( documentação ): Não

  • Divisões :

Dividir Exemplos
'train' 5.519
  • Estrutura de recursos :
FeaturesDict({
    'steps': Dataset({
        'action': Tensor(shape=(30,), dtype=float32),
        'discount': float64,
        'infos': FeaturesDict({
            'qpos': Tensor(shape=(36,), dtype=float64),
            'qvel': Tensor(shape=(36,), dtype=float64),
        }),
        'is_first': bool,
        'is_last': bool,
        'is_terminal': bool,
        'observation': Tensor(shape=(39,), dtype=float64),
        'reward': float64,
    }),
})
  • Documentação de recursos :
Recurso Aula Forma Tipo D Descrição
RecursosDict
passos Conjunto de dados
etapas/ação Tensor (30,) float32
passos/desconto Tensor float64
etapas/informações RecursosDict
etapas/informações/qpos Tensor (36,) float64
passos/informações/qvel Tensor (36,) float64
passos/é_primeiro Tensor bool
passos/é_último Tensor bool
etapas/is_terminal Tensor bool
etapas/observação Tensor (39,) float64
passos/recompensa Tensor float64

d4rl_adroit_relocate/v0-expert

  • Tamanho do download : 581.53 MiB

  • Tamanho do conjunto de dados : 778.97 MiB

  • Armazenado em cache automaticamente ( documentação ): Não

  • Divisões :

Dividir Exemplos
'train' 5.000
  • Estrutura de recursos :
FeaturesDict({
    'steps': Dataset({
        'action': Tensor(shape=(30,), dtype=float32),
        'discount': float32,
        'infos': FeaturesDict({
            'action_logstd': Tensor(shape=(30,), dtype=float32),
            'action_mean': Tensor(shape=(30,), dtype=float32),
            'qpos': Tensor(shape=(36,), dtype=float32),
            'qvel': Tensor(shape=(36,), dtype=float32),
        }),
        'is_first': bool,
        'is_last': bool,
        'is_terminal': bool,
        'observation': Tensor(shape=(39,), dtype=float32),
        'reward': float32,
    }),
})
  • Documentação de recursos :
Recurso Aula Forma Tipo D Descrição
RecursosDict
passos Conjunto de dados
etapas/ação Tensor (30,) float32
passos/desconto Tensor float32
etapas/informações RecursosDict
etapas/informações/action_logstd Tensor (30,) float32
etapas/informações/action_mean Tensor (30,) float32
etapas/informações/qpos Tensor (36,) float32
passos/informações/qvel Tensor (36,) float32
passos/é_primeiro Tensor bool
passos/é_último Tensor bool
etapas/is_terminal Tensor bool
etapas/observação Tensor (39,) float32
passos/recompensa Tensor float32

d4rl_adroit_relocate/v1-human

  • Tamanho do download : 5.92 MiB

  • Tamanho do conjunto de dados : 6.94 MiB

  • Armazenado em cache automaticamente ( documentação ): Sim

  • Divisões :

Dividir Exemplos
'train' 25
  • Estrutura de recursos :
FeaturesDict({
    'steps': Dataset({
        'action': Tensor(shape=(30,), dtype=float32),
        'discount': float32,
        'infos': FeaturesDict({
            'hand_qpos': Tensor(shape=(30,), dtype=float32),
            'obj_pos': Tensor(shape=(3,), dtype=float32),
            'palm_pos': Tensor(shape=(3,), dtype=float32),
            'qpos': Tensor(shape=(36,), dtype=float32),
            'qvel': Tensor(shape=(36,), dtype=float32),
            'target_pos': Tensor(shape=(3,), dtype=float32),
        }),
        'is_first': bool,
        'is_last': bool,
        'is_terminal': bool,
        'observation': Tensor(shape=(39,), dtype=float32),
        'reward': float32,
    }),
})
  • Documentação de recursos :
Recurso Aula Forma Tipo D Descrição
RecursosDict
passos Conjunto de dados
etapas/ação Tensor (30,) float32
passos/desconto Tensor float32
etapas/informações RecursosDict
passos/informações/hand_qpos Tensor (30,) float32
etapas/informações/obj_pos Tensor (3,) float32
passos/informações/palm_pos Tensor (3,) float32
etapas/informações/qpos Tensor (36,) float32
passos/informações/qvel Tensor (36,) float32
etapas/informações/target_pos Tensor (3,) float32
passos/é_primeiro Tensor bool
passos/é_último Tensor bool
etapas/is_terminal Tensor bool
etapas/observação Tensor (39,) float32
passos/recompensa Tensor float32

d4rl_adroit_relocate/v1-clonado

  • Tamanho do download : 554.39 MiB

  • Tamanho do conjunto de dados : 1.86 GiB

  • Armazenado em cache automaticamente ( documentação ): Não

  • Divisões :

Dividir Exemplos
'train' 3.758
  • Estrutura de recursos :
FeaturesDict({
    'algorithm': string,
    'policy': FeaturesDict({
        'fc0': FeaturesDict({
            'bias': Tensor(shape=(256,), dtype=float32),
            'weight': Tensor(shape=(39, 256), dtype=float32),
        }),
        'fc1': FeaturesDict({
            'bias': Tensor(shape=(256,), dtype=float32),
            'weight': Tensor(shape=(256, 256), dtype=float32),
        }),
        'last_fc': FeaturesDict({
            'bias': Tensor(shape=(30,), dtype=float32),
            'weight': Tensor(shape=(256, 30), dtype=float32),
        }),
        'nonlinearity': string,
        'output_distribution': string,
    }),
    'steps': Dataset({
        'action': Tensor(shape=(30,), dtype=float32),
        'discount': float32,
        'infos': FeaturesDict({
            'hand_qpos': Tensor(shape=(30,), dtype=float32),
            'obj_pos': Tensor(shape=(3,), dtype=float32),
            'palm_pos': Tensor(shape=(3,), dtype=float32),
            'qpos': Tensor(shape=(36,), dtype=float32),
            'qvel': Tensor(shape=(36,), dtype=float32),
            'target_pos': Tensor(shape=(3,), dtype=float32),
        }),
        'is_first': bool,
        'is_last': bool,
        'is_terminal': bool,
        'observation': Tensor(shape=(39,), dtype=float32),
        'reward': float32,
    }),
})
  • Documentação de recursos :
Recurso Aula Forma Tipo D Descrição
RecursosDict
algoritmo Tensor corda
política RecursosDict
política/fc0 RecursosDict
política/fc0/bias Tensor (256,) float32
política/fc0/peso Tensor (39, 256) float32
política/fc1 RecursosDict
política/fc1/preconceito Tensor (256,) float32
política/fc1/peso Tensor (256, 256) float32
política/last_fc RecursosDict
política/last_fc/bias Tensor (30,) float32
política/last_fc/peso Tensor (256, 30) float32
política/não linearidade Tensor corda
política/output_distribution Tensor corda
passos Conjunto de dados
etapas/ação Tensor (30,) float32
passos/desconto Tensor float32
etapas/informações RecursosDict
passos/informações/hand_qpos Tensor (30,) float32
etapas/informações/obj_pos Tensor (3,) float32
passos/informações/palm_pos Tensor (3,) float32
etapas/informações/qpos Tensor (36,) float32
passos/informações/qvel Tensor (36,) float32
etapas/informações/target_pos Tensor (3,) float32
passos/é_primeiro Tensor bool
passos/é_último Tensor bool
etapas/is_terminal Tensor bool
etapas/observação Tensor (39,) float32
passos/recompensa Tensor float32

d4rl_adroit_relocate/v1-expert

  • Tamanho do download : 682.47 MiB

  • Tamanho do conjunto de dados : 1012.49 MiB

  • Armazenado em cache automaticamente ( documentação ): Não

  • Divisões :

Dividir Exemplos
'train' 5.000
  • Estrutura de recursos :
FeaturesDict({
    'algorithm': string,
    'policy': FeaturesDict({
        'fc0': FeaturesDict({
            'bias': Tensor(shape=(32,), dtype=float32),
            'weight': Tensor(shape=(32, 39), dtype=float32),
        }),
        'fc1': FeaturesDict({
            'bias': Tensor(shape=(32,), dtype=float32),
            'weight': Tensor(shape=(32, 32), dtype=float32),
        }),
        'last_fc': FeaturesDict({
            'bias': Tensor(shape=(30,), dtype=float32),
            'weight': Tensor(shape=(30, 32), dtype=float32),
        }),
        'last_fc_log_std': FeaturesDict({
            'bias': Tensor(shape=(30,), dtype=float32),
            'weight': Tensor(shape=(30, 32), dtype=float32),
        }),
        'nonlinearity': string,
        'output_distribution': string,
    }),
    'steps': Dataset({
        'action': Tensor(shape=(30,), dtype=float32),
        'discount': float32,
        'infos': FeaturesDict({
            'action_log_std': Tensor(shape=(30,), dtype=float32),
            'action_mean': Tensor(shape=(30,), dtype=float32),
            'hand_qpos': Tensor(shape=(30,), dtype=float32),
            'obj_pos': Tensor(shape=(3,), dtype=float32),
            'palm_pos': Tensor(shape=(3,), dtype=float32),
            'qpos': Tensor(shape=(36,), dtype=float32),
            'qvel': Tensor(shape=(36,), dtype=float32),
            'target_pos': Tensor(shape=(3,), dtype=float32),
        }),
        'is_first': bool,
        'is_last': bool,
        'is_terminal': bool,
        'observation': Tensor(shape=(39,), dtype=float32),
        'reward': float32,
    }),
})
  • Documentação de recursos :
Recurso Aula Forma Tipo D Descrição
RecursosDict
algoritmo Tensor corda
política RecursosDict
política/fc0 RecursosDict
política/fc0/bias Tensor (32,) float32
política/fc0/peso Tensor (32, 39) float32
política/fc1 RecursosDict
política/fc1/preconceito Tensor (32,) float32
política/fc1/peso Tensor (32, 32) float32
política/last_fc RecursosDict
política/last_fc/bias Tensor (30,) float32
política/last_fc/peso Tensor (30, 32) float32
política/last_fc_log_std RecursosDict
política/last_fc_log_std/bias Tensor (30,) float32
política/last_fc_log_std/peso Tensor (30, 32) float32
política/não linearidade Tensor corda
política/output_distribution Tensor corda
passos Conjunto de dados
etapas/ação Tensor (30,) float32
passos/desconto Tensor float32
etapas/informações RecursosDict
etapas/informações/action_log_std Tensor (30,) float32
etapas/informações/action_mean Tensor (30,) float32
passos/informações/hand_qpos Tensor (30,) float32
etapas/informações/obj_pos Tensor (3,) float32
passos/informações/palm_pos Tensor (3,) float32
etapas/informações/qpos Tensor (36,) float32
passos/informações/qvel Tensor (36,) float32
etapas/informações/target_pos Tensor (3,) float32
passos/é_primeiro Tensor bool
passos/é_último Tensor bool
etapas/is_terminal Tensor bool
passos/observação Tensor (39,) float32
passos/recompensa Tensor float32