d4rl_adroit_pen

  • Descrição :

D4RL é um benchmark de código aberto para aprendizagem por reforço offline. Ele fornece ambientes e conjuntos de dados padronizados para algoritmos de treinamento e benchmarking.

Os conjuntos de dados seguem o formato RLDS para representar etapas e episódios.

@misc{fu2020d4rl,
    title={D4RL: Datasets for Deep Data-Driven Reinforcement Learning},
    author={Justin Fu and Aviral Kumar and Ofir Nachum and George Tucker and Sergey Levine},
    year={2020},
    eprint={2004.07219},
    archivePrefix={arXiv},
    primaryClass={cs.LG}
}

d4rl_adroit_pen/v0-human (configuração padrão)

Dividir Exemplos
'train' 50
  • Estrutura de recursos :
FeaturesDict({
    'steps': Dataset({
        'action': Tensor(shape=(24,), dtype=float32),
        'discount': float32,
        'infos': FeaturesDict({
            'qpos': Tensor(shape=(30,), dtype=float32),
            'qvel': Tensor(shape=(30,), dtype=float32),
        }),
        'is_first': bool,
        'is_last': bool,
        'is_terminal': bool,
        'observation': Tensor(shape=(45,), dtype=float32),
        'reward': float32,
    }),
})
  • Documentação de recursos :
Recurso Aula Forma Tipo D Descrição
RecursosDict
passos Conjunto de dados
etapas/ação Tensor (24,) float32
passos/desconto Tensor float32
etapas/informações RecursosDict
etapas/informações/qpos Tensor (30,) float32
passos/informações/qvel Tensor (30,) float32
passos/é_primeiro Tensor bool
passos/é_último Tensor bool
etapas/is_terminal Tensor bool
etapas/observação Tensor (45,) float32
passos/recompensa Tensor float32

d4rl_adroit_pen/v0-clonado

Dividir Exemplos
'train' 5.023
  • Estrutura de recursos :
FeaturesDict({
    'steps': Dataset({
        'action': Tensor(shape=(24,), dtype=float32),
        'discount': float64,
        'infos': FeaturesDict({
            'qpos': Tensor(shape=(30,), dtype=float64),
            'qvel': Tensor(shape=(30,), dtype=float64),
        }),
        'is_first': bool,
        'is_last': bool,
        'is_terminal': bool,
        'observation': Tensor(shape=(45,), dtype=float64),
        'reward': float64,
    }),
})
  • Documentação de recursos :
Recurso Aula Forma Tipo D Descrição
RecursosDict
passos Conjunto de dados
etapas/ação Tensor (24,) float32
passos/desconto Tensor float64
etapas/informações RecursosDict
etapas/informações/qpos Tensor (30,) float64
passos/informações/qvel Tensor (30,) float64
passos/é_primeiro Tensor bool
passos/é_último Tensor bool
etapas/is_terminal Tensor bool
etapas/observação Tensor (45,) float64
passos/recompensa Tensor float64

d4rl_adroit_pen/v0-expert

Dividir Exemplos
'train' 5.000
  • Estrutura de recursos :
FeaturesDict({
    'steps': Dataset({
        'action': Tensor(shape=(24,), dtype=float32),
        'discount': float32,
        'infos': FeaturesDict({
            'action_logstd': Tensor(shape=(24,), dtype=float32),
            'action_mean': Tensor(shape=(24,), dtype=float32),
            'qpos': Tensor(shape=(30,), dtype=float32),
            'qvel': Tensor(shape=(30,), dtype=float32),
        }),
        'is_first': bool,
        'is_last': bool,
        'is_terminal': bool,
        'observation': Tensor(shape=(45,), dtype=float32),
        'reward': float32,
    }),
})
  • Documentação de recursos :
Recurso Aula Forma Tipo D Descrição
RecursosDict
passos Conjunto de dados
etapas/ação Tensor (24,) float32
passos/desconto Tensor float32
etapas/informações RecursosDict
etapas/informações/action_logstd Tensor (24,) float32
etapas/informações/action_mean Tensor (24,) float32
etapas/informações/qpos Tensor (30,) float32
passos/informações/qvel Tensor (30,) float32
passos/é_primeiro Tensor bool
passos/é_último Tensor bool
etapas/is_terminal Tensor bool
etapas/observação Tensor (45,) float32
passos/recompensa Tensor float32

d4rl_adroit_pen/v1-human

Dividir Exemplos
'train' 25
  • Estrutura de recursos :
FeaturesDict({
    'steps': Dataset({
        'action': Tensor(shape=(24,), dtype=float32),
        'discount': float32,
        'infos': FeaturesDict({
            'desired_orien': Tensor(shape=(4,), dtype=float32),
            'qpos': Tensor(shape=(30,), dtype=float32),
            'qvel': Tensor(shape=(30,), dtype=float32),
        }),
        'is_first': bool,
        'is_last': bool,
        'is_terminal': bool,
        'observation': Tensor(shape=(45,), dtype=float32),
        'reward': float32,
    }),
})
  • Documentação de recursos :
Recurso Aula Forma Tipo D Descrição
RecursosDict
passos Conjunto de dados
etapas/ação Tensor (24,) float32
passos/desconto Tensor float32
etapas/informações RecursosDict
etapas/informações/desired_orien Tensor (4,) float32
etapas/informações/qpos Tensor (30,) float32
passos/informações/qvel Tensor (30,) float32
passos/é_primeiro Tensor bool
passos/é_último Tensor bool
etapas/is_terminal Tensor bool
etapas/observação Tensor (45,) float32
passos/recompensa Tensor float32

d4rl_adroit_pen/v1-clonado

Dividir Exemplos
'train' 3.755
  • Estrutura de recursos :
FeaturesDict({
    'algorithm': string,
    'policy': FeaturesDict({
        'fc0': FeaturesDict({
            'bias': Tensor(shape=(256,), dtype=float32),
            'weight': Tensor(shape=(45, 256), dtype=float32),
        }),
        'fc1': FeaturesDict({
            'bias': Tensor(shape=(256,), dtype=float32),
            'weight': Tensor(shape=(256, 256), dtype=float32),
        }),
        'last_fc': FeaturesDict({
            'bias': Tensor(shape=(24,), dtype=float32),
            'weight': Tensor(shape=(256, 24), dtype=float32),
        }),
        'nonlinearity': string,
        'output_distribution': string,
    }),
    'steps': Dataset({
        'action': Tensor(shape=(24,), dtype=float32),
        'discount': float32,
        'infos': FeaturesDict({
            'desired_orien': Tensor(shape=(4,), dtype=float32),
            'qpos': Tensor(shape=(30,), dtype=float32),
            'qvel': Tensor(shape=(30,), dtype=float32),
        }),
        'is_first': bool,
        'is_last': bool,
        'is_terminal': bool,
        'observation': Tensor(shape=(45,), dtype=float32),
        'reward': float32,
    }),
})
  • Documentação de recursos :
Recurso Aula Forma Tipo D Descrição
RecursosDict
algoritmo Tensor corda
política RecursosDict
política/fc0 RecursosDict
política/fc0/bias Tensor (256,) float32
política/fc0/peso Tensor (45, 256) float32
política/fc1 RecursosDict
política/fc1/preconceito Tensor (256,) float32
política/fc1/peso Tensor (256, 256) float32
política/last_fc RecursosDict
política/last_fc/bias Tensor (24,) float32
política/last_fc/peso Tensor (256, 24) float32
política/não linearidade Tensor corda
política/output_distribution Tensor corda
passos Conjunto de dados
etapas/ação Tensor (24,) float32
passos/desconto Tensor float32
etapas/informações RecursosDict
etapas/informações/desired_orien Tensor (4,) float32
etapas/informações/qpos Tensor (30,) float32
passos/informações/qvel Tensor (30,) float32
passos/é_primeiro Tensor bool
passos/é_último Tensor bool
etapas/is_terminal Tensor bool
etapas/observação Tensor (45,) float32
passos/recompensa Tensor float32

d4rl_adroit_pen/v1-expert

  • Tamanho do download : 249.90 MiB

  • Tamanho do conjunto de dados : 548.47 MiB

  • Armazenado em cache automaticamente ( documentação ): Não

  • Divisões :

Dividir Exemplos
'train' 5.000
  • Estrutura de recursos :
FeaturesDict({
    'algorithm': string,
    'policy': FeaturesDict({
        'fc0': FeaturesDict({
            'bias': Tensor(shape=(64,), dtype=float32),
            'weight': Tensor(shape=(64, 45), dtype=float32),
        }),
        'fc1': FeaturesDict({
            'bias': Tensor(shape=(64,), dtype=float32),
            'weight': Tensor(shape=(64, 64), dtype=float32),
        }),
        'last_fc': FeaturesDict({
            'bias': Tensor(shape=(24,), dtype=float32),
            'weight': Tensor(shape=(24, 64), dtype=float32),
        }),
        'last_fc_log_std': FeaturesDict({
            'bias': Tensor(shape=(24,), dtype=float32),
            'weight': Tensor(shape=(24, 64), dtype=float32),
        }),
        'nonlinearity': string,
        'output_distribution': string,
    }),
    'steps': Dataset({
        'action': Tensor(shape=(24,), dtype=float32),
        'discount': float32,
        'infos': FeaturesDict({
            'action_log_std': Tensor(shape=(24,), dtype=float32),
            'action_mean': Tensor(shape=(24,), dtype=float32),
            'desired_orien': Tensor(shape=(4,), dtype=float32),
            'qpos': Tensor(shape=(30,), dtype=float32),
            'qvel': Tensor(shape=(30,), dtype=float32),
        }),
        'is_first': bool,
        'is_last': bool,
        'is_terminal': bool,
        'observation': Tensor(shape=(45,), dtype=float32),
        'reward': float32,
    }),
})
  • Documentação de recursos :
Recurso Aula Forma Tipo D Descrição
RecursosDict
algoritmo Tensor corda
política RecursosDict
política/fc0 RecursosDict
política/fc0/bias Tensor (64,) float32
política/fc0/peso Tensor (64, 45) float32
política/fc1 RecursosDict
política/fc1/preconceito Tensor (64,) float32
política/fc1/peso Tensor (64, 64) float32
política/last_fc RecursosDict
política/last_fc/bias Tensor (24,) float32
política/last_fc/peso Tensor (24, 64) float32
política/last_fc_log_std RecursosDict
política/last_fc_log_std/bias Tensor (24,) float32
política/last_fc_log_std/peso Tensor (24, 64) float32
política/não linearidade Tensor corda
política/output_distribution Tensor corda
passos Conjunto de dados
etapas/ação Tensor (24,) float32
passos/desconto Tensor float32
etapas/informações RecursosDict
etapas/informações/action_log_std Tensor (24,) float32
etapas/informações/action_mean Tensor (24,) float32
etapas/informações/desired_orien Tensor (4,) float32
etapas/informações/qpos Tensor (30,) float32
passos/informações/qvel Tensor (30,) float32
passos/é_primeiro Tensor bool
passos/é_último Tensor bool
etapas/is_terminal Tensor bool
etapas/observação Tensor (45,) float32
passos/recompensa Tensor float32