d4rl_mujoco_walker2d

  • Descrição :

D4RL é um benchmark de código aberto para aprendizagem por reforço offline. Ele fornece ambientes e conjuntos de dados padronizados para algoritmos de treinamento e benchmarking.

Os conjuntos de dados seguem o formato RLDS para representar etapas e episódios.

@misc{fu2020d4rl,
    title={D4RL: Datasets for Deep Data-Driven Reinforcement Learning},
    author={Justin Fu and Aviral Kumar and Ofir Nachum and George Tucker and Sergey Levine},
    year={2020},
    eprint={2004.07219},
    archivePrefix={arXiv},
    primaryClass={cs.LG}
}

d4rl_mujoco_walker2d/v0-expert (configuração padrão)

  • Tamanho do download : 78.41 MiB

  • Tamanho do conjunto de dados : 98.64 MiB

  • Armazenado em cache automaticamente ( documentação ): Sim

  • Divisões :

Dividir Exemplos
'train' 1.628
  • Estrutura de recursos :
FeaturesDict({
    'steps': Dataset({
        'action': Tensor(shape=(6,), dtype=float32),
        'discount': float32,
        'is_first': bool,
        'is_last': bool,
        'is_terminal': bool,
        'observation': Tensor(shape=(17,), dtype=float32),
        'reward': float32,
    }),
})
  • Documentação de recursos :
Recurso Aula Forma Tipo D Descrição
RecursosDict
passos Conjunto de dados
etapas/ação Tensor (6,) float32
passos/desconto Tensor float32
passos/é_primeiro Tensor bool
passos/é_último Tensor bool
etapas/is_terminal Tensor bool
etapas/observação Tensor (17,) float32
passos/recompensa Tensor float32

d4rl_mujoco_walker2d/v0-medium

  • Tamanho do download : 80.83 MiB

  • Tamanho do conjunto de dados : 99.72 MiB

  • Armazenado em cache automaticamente ( documentação ): Sim

  • Divisões :

Dividir Exemplos
'train' 5.315
  • Estrutura de recursos :
FeaturesDict({
    'steps': Dataset({
        'action': Tensor(shape=(6,), dtype=float32),
        'discount': float32,
        'is_first': bool,
        'is_last': bool,
        'is_terminal': bool,
        'observation': Tensor(shape=(17,), dtype=float32),
        'reward': float32,
    }),
})
  • Documentação de recursos :
Recurso Aula Forma Tipo D Descrição
RecursosDict
passos Conjunto de dados
etapas/ação Tensor (6,) float32
passos/desconto Tensor float32
passos/é_primeiro Tensor bool
passos/é_último Tensor bool
etapas/is_terminal Tensor bool
etapas/observação Tensor (17,) float32
passos/recompensa Tensor float32

d4rl_mujoco_walker2d/v0-medium-expert

  • Tamanho do download : 159.24 MiB

  • Tamanho do conjunto de dados : 198.36 MiB

  • Armazenado em cache automaticamente ( documentação ): somente quando shuffle_files=False (train)

  • Divisões :

Dividir Exemplos
'train' 6.943
  • Estrutura de recursos :
FeaturesDict({
    'steps': Dataset({
        'action': Tensor(shape=(6,), dtype=float32),
        'discount': float32,
        'is_first': bool,
        'is_last': bool,
        'is_terminal': bool,
        'observation': Tensor(shape=(17,), dtype=float32),
        'reward': float32,
    }),
})
  • Documentação de recursos :
Recurso Aula Forma Tipo D Descrição
RecursosDict
passos Conjunto de dados
etapas/ação Tensor (6,) float32
passos/desconto Tensor float32
passos/é_primeiro Tensor bool
passos/é_último Tensor bool
etapas/is_terminal Tensor bool
etapas/observação Tensor (17,) float32
passos/recompensa Tensor float32

d4rl_mujoco_walker2d/v0-misto

  • Tamanho do download : 8.42 MiB

  • Tamanho do conjunto de dados : 10.06 MiB

  • Armazenado em cache automaticamente ( documentação ): Sim

  • Divisões :

Dividir Exemplos
'train' 501
  • Estrutura de recursos :
FeaturesDict({
    'steps': Dataset({
        'action': Tensor(shape=(6,), dtype=float32),
        'discount': float32,
        'is_first': bool,
        'is_last': bool,
        'is_terminal': bool,
        'observation': Tensor(shape=(17,), dtype=float32),
        'reward': float32,
    }),
})
  • Documentação de recursos :
Recurso Aula Forma Tipo D Descrição
RecursosDict
passos Conjunto de dados
etapas/ação Tensor (6,) float32
passos/desconto Tensor float32
passos/é_primeiro Tensor bool
passos/é_último Tensor bool
etapas/is_terminal Tensor bool
etapas/observação Tensor (17,) float32
passos/recompensa Tensor float32

d4rl_mujoco_walker2d/v0-random

  • Tamanho do download : 78.41 MiB

  • Tamanho do conjunto de dados : 112.04 MiB

  • Armazenado em cache automaticamente ( documentação ): Sim

  • Divisões :

Dividir Exemplos
'train' 50.988
  • Estrutura de recursos :
FeaturesDict({
    'steps': Dataset({
        'action': Tensor(shape=(6,), dtype=float32),
        'discount': float32,
        'is_first': bool,
        'is_last': bool,
        'is_terminal': bool,
        'observation': Tensor(shape=(17,), dtype=float32),
        'reward': float32,
    }),
})
  • Documentação de recursos :
Recurso Aula Forma Tipo D Descrição
RecursosDict
passos Conjunto de dados
etapas/ação Tensor (6,) float32
passos/desconto Tensor float32
passos/é_primeiro Tensor bool
passos/é_último Tensor bool
etapas/is_terminal Tensor bool
etapas/observação Tensor (17,) float32
passos/recompensa Tensor float32

d4rl_mujoco_walker2d/v1-expert

  • Tamanho do download : 143.06 MiB

  • Tamanho do conjunto de dados : 452.72 MiB

  • Armazenado em cache automaticamente ( documentação ): Não

  • Divisões :

Dividir Exemplos
'train' 1.003
  • Estrutura de recursos :
FeaturesDict({
    'algorithm': string,
    'iteration': int32,
    'policy': FeaturesDict({
        'fc0': FeaturesDict({
            'bias': Tensor(shape=(256,), dtype=float32),
            'weight': Tensor(shape=(256, 17), dtype=float32),
        }),
        'fc1': FeaturesDict({
            'bias': Tensor(shape=(256,), dtype=float32),
            'weight': Tensor(shape=(256, 256), dtype=float32),
        }),
        'last_fc': FeaturesDict({
            'bias': Tensor(shape=(6,), dtype=float32),
            'weight': Tensor(shape=(6, 256), dtype=float32),
        }),
        'last_fc_log_std': FeaturesDict({
            'bias': Tensor(shape=(6,), dtype=float32),
            'weight': Tensor(shape=(6, 256), dtype=float32),
        }),
        'nonlinearity': string,
        'output_distribution': string,
    }),
    'steps': Dataset({
        'action': Tensor(shape=(6,), dtype=float32),
        'discount': float32,
        'infos': FeaturesDict({
            'action_log_probs': float32,
            'qpos': Tensor(shape=(9,), dtype=float32),
            'qvel': Tensor(shape=(9,), dtype=float32),
        }),
        'is_first': bool,
        'is_last': bool,
        'is_terminal': bool,
        'observation': Tensor(shape=(17,), dtype=float32),
        'reward': float32,
    }),
})
  • Documentação de recursos :
Recurso Aula Forma Tipo D Descrição
RecursosDict
algoritmo Tensor corda
iteração Tensor int32
política RecursosDict
política/fc0 RecursosDict
política/fc0/bias Tensor (256,) float32
política/fc0/peso Tensor (256, 17) float32
política/fc1 RecursosDict
política/fc1/preconceito Tensor (256,) float32
política/fc1/peso Tensor (256, 256) float32
política/last_fc RecursosDict
política/last_fc/bias Tensor (6,) float32
política/last_fc/peso Tensor (6, 256) float32
política/last_fc_log_std RecursosDict
política/last_fc_log_std/bias Tensor (6,) float32
política/last_fc_log_std/peso Tensor (6, 256) float32
política/não linearidade Tensor corda
política/output_distribution Tensor corda
passos Conjunto de dados
etapas/ação Tensor (6,) float32
passos/desconto Tensor float32
etapas/informações RecursosDict
etapas/informações/action_log_probs Tensor float32
etapas/informações/qpos Tensor (9,) float32
passos/informações/qvel Tensor (9,) float32
passos/é_primeiro Tensor bool
passos/é_último Tensor bool
etapas/is_terminal Tensor bool
etapas/observação Tensor (17,) float32
passos/recompensa Tensor float32

d4rl_mujoco_walker2d/v1-medium

  • Tamanho do download : 144.23 MiB

  • Tamanho do conjunto de dados : 510.08 MiB

  • Armazenado em cache automaticamente ( documentação ): Não

  • Divisões :

Dividir Exemplos
'train' 1.207
  • Estrutura de recursos :
FeaturesDict({
    'algorithm': string,
    'iteration': int32,
    'policy': FeaturesDict({
        'fc0': FeaturesDict({
            'bias': Tensor(shape=(256,), dtype=float32),
            'weight': Tensor(shape=(256, 17), dtype=float32),
        }),
        'fc1': FeaturesDict({
            'bias': Tensor(shape=(256,), dtype=float32),
            'weight': Tensor(shape=(256, 256), dtype=float32),
        }),
        'last_fc': FeaturesDict({
            'bias': Tensor(shape=(6,), dtype=float32),
            'weight': Tensor(shape=(6, 256), dtype=float32),
        }),
        'last_fc_log_std': FeaturesDict({
            'bias': Tensor(shape=(6,), dtype=float32),
            'weight': Tensor(shape=(6, 256), dtype=float32),
        }),
        'nonlinearity': string,
        'output_distribution': string,
    }),
    'steps': Dataset({
        'action': Tensor(shape=(6,), dtype=float32),
        'discount': float32,
        'infos': FeaturesDict({
            'action_log_probs': float32,
            'qpos': Tensor(shape=(9,), dtype=float32),
            'qvel': Tensor(shape=(9,), dtype=float32),
        }),
        'is_first': bool,
        'is_last': bool,
        'is_terminal': bool,
        'observation': Tensor(shape=(17,), dtype=float32),
        'reward': float32,
    }),
})
  • Documentação de recursos :
Recurso Aula Forma Tipo D Descrição
RecursosDict
algoritmo Tensor corda
iteração Tensor int32
política RecursosDict
política/fc0 RecursosDict
política/fc0/bias Tensor (256,) float32
política/fc0/peso Tensor (256, 17) float32
política/fc1 RecursosDict
política/fc1/preconceito Tensor (256,) float32
política/fc1/peso Tensor (256, 256) float32
política/last_fc RecursosDict
política/last_fc/bias Tensor (6,) float32
política/last_fc/peso Tensor (6, 256) float32
política/last_fc_log_std RecursosDict
política/last_fc_log_std/bias Tensor (6,) float32
política/last_fc_log_std/peso Tensor (6, 256) float32
política/não linearidade Tensor corda
política/output_distribution Tensor corda
passos Conjunto de dados
etapas/ação Tensor (6,) float32
passos/desconto Tensor float32
etapas/informações RecursosDict
etapas/informações/action_log_probs Tensor float32
etapas/informações/qpos Tensor (9,) float32
passos/informações/qvel Tensor (9,) float32
passos/é_primeiro Tensor bool
passos/é_último Tensor bool
etapas/is_terminal Tensor bool
etapas/observação Tensor (17,) float32
passos/recompensa Tensor float32

d4rl_mujoco_walker2d/v1-medium-expert

  • Tamanho do download : 286.69 MiB

  • Tamanho do conjunto de dados : 342.46 MiB

  • Armazenado em cache automaticamente ( documentação ): Não

  • Divisões :

Dividir Exemplos
'train' 2.209
  • Estrutura de recursos :
FeaturesDict({
    'steps': Dataset({
        'action': Tensor(shape=(6,), dtype=float32),
        'discount': float32,
        'infos': FeaturesDict({
            'action_log_probs': float32,
            'qpos': Tensor(shape=(9,), dtype=float32),
            'qvel': Tensor(shape=(9,), dtype=float32),
        }),
        'is_first': bool,
        'is_last': bool,
        'is_terminal': bool,
        'observation': Tensor(shape=(17,), dtype=float32),
        'reward': float32,
    }),
})
  • Documentação de recursos :
Recurso Aula Forma Tipo D Descrição
RecursosDict
passos Conjunto de dados
etapas/ação Tensor (6,) float32
passos/desconto Tensor float32
etapas/informações RecursosDict
etapas/informações/action_log_probs Tensor float32
etapas/informações/qpos Tensor (9,) float32
passos/informações/qvel Tensor (9,) float32
passos/é_primeiro Tensor bool
passos/é_último Tensor bool
etapas/is_terminal Tensor bool
etapas/observação Tensor (17,) float32
passos/recompensa Tensor float32

d4rl_mujoco_walker2d/v1-medium-replay

  • Tamanho do download : 84.37 MiB

  • Tamanho do conjunto de dados : 52.10 MiB

  • Armazenado em cache automaticamente ( documentação ): Sim

  • Divisões :

Dividir Exemplos
'train' 1.093
  • Estrutura de recursos :
FeaturesDict({
    'algorithm': string,
    'iteration': int32,
    'steps': Dataset({
        'action': Tensor(shape=(6,), dtype=float64),
        'discount': float64,
        'infos': FeaturesDict({
            'action_log_probs': float64,
            'qpos': Tensor(shape=(9,), dtype=float64),
            'qvel': Tensor(shape=(9,), dtype=float64),
        }),
        'is_first': bool,
        'is_last': bool,
        'is_terminal': bool,
        'observation': Tensor(shape=(17,), dtype=float64),
        'reward': float64,
    }),
})
  • Documentação de recursos :
Recurso Aula Forma Tipo D Descrição
RecursosDict
algoritmo Tensor corda
iteração Tensor int32
passos Conjunto de dados
etapas/ação Tensor (6,) float64
passos/desconto Tensor float64
etapas/informações RecursosDict
etapas/informações/action_log_probs Tensor float64
etapas/informações/qpos Tensor (9,) float64
passos/informações/qvel Tensor (9,) float64
passos/é_primeiro Tensor bool
passos/é_último Tensor bool
etapas/is_terminal Tensor bool
etapas/observação Tensor (17,) float64
passos/recompensa Tensor float64

d4rl_mujoco_walker2d/v1-full-replay

  • Tamanho do download : 278.95 MiB

  • Tamanho do conjunto de dados : 171.66 MiB

  • Armazenado em cache automaticamente ( documentação ): somente quando shuffle_files=False (train)

  • Divisões :

Dividir Exemplos
'train' 1.888
  • Estrutura de recursos :
FeaturesDict({
    'algorithm': string,
    'iteration': int32,
    'steps': Dataset({
        'action': Tensor(shape=(6,), dtype=float64),
        'discount': float64,
        'infos': FeaturesDict({
            'action_log_probs': float64,
            'qpos': Tensor(shape=(9,), dtype=float64),
            'qvel': Tensor(shape=(9,), dtype=float64),
        }),
        'is_first': bool,
        'is_last': bool,
        'is_terminal': bool,
        'observation': Tensor(shape=(17,), dtype=float64),
        'reward': float64,
    }),
})
  • Documentação de recursos :
Recurso Aula Forma Tipo D Descrição
RecursosDict
algoritmo Tensor corda
iteração Tensor int32
passos Conjunto de dados
etapas/ação Tensor (6,) float64
passos/desconto Tensor float64
etapas/informações RecursosDict
etapas/informações/action_log_probs Tensor float64
etapas/informações/qpos Tensor (9,) float64
passos/informações/qvel Tensor (9,) float64
passos/é_primeiro Tensor bool
passos/é_último Tensor bool
etapas/is_terminal Tensor bool
etapas/observação Tensor (17,) float64
passos/recompensa Tensor float64

d4rl_mujoco_walker2d/v1-random

  • Tamanho do download : 132.36 MiB

  • Tamanho do conjunto de dados : 192.06 MiB

  • Armazenado em cache automaticamente ( documentação ): somente quando shuffle_files=False (train)

  • Divisões :

Dividir Exemplos
'train' 48.790
  • Estrutura de recursos :
FeaturesDict({
    'steps': Dataset({
        'action': Tensor(shape=(6,), dtype=float32),
        'discount': float32,
        'infos': FeaturesDict({
            'action_log_probs': float32,
            'qpos': Tensor(shape=(9,), dtype=float32),
            'qvel': Tensor(shape=(9,), dtype=float32),
        }),
        'is_first': bool,
        'is_last': bool,
        'is_terminal': bool,
        'observation': Tensor(shape=(17,), dtype=float32),
        'reward': float32,
    }),
})
  • Documentação de recursos :
Recurso Aula Forma Tipo D Descrição
RecursosDict
passos Conjunto de dados
etapas/ação Tensor (6,) float32
passos/desconto Tensor float32
etapas/informações RecursosDict
etapas/informações/action_log_probs Tensor float32
etapas/informações/qpos Tensor (9,) float32
passos/informações/qvel Tensor (9,) float32
passos/é_primeiro Tensor bool
passos/é_último Tensor bool
etapas/is_terminal Tensor bool
etapas/observação Tensor (17,) float32
passos/recompensa Tensor float32

d4rl_mujoco_walker2d/v2-expert

  • Tamanho do download : 219.89 MiB

  • Tamanho do conjunto de dados : 452.16 MiB

  • Armazenado em cache automaticamente ( documentação ): Não

  • Divisões :

Dividir Exemplos
'train' 1.001
  • Estrutura de recursos :
FeaturesDict({
    'algorithm': string,
    'iteration': int32,
    'policy': FeaturesDict({
        'fc0': FeaturesDict({
            'bias': Tensor(shape=(256,), dtype=float32),
            'weight': Tensor(shape=(256, 17), dtype=float32),
        }),
        'fc1': FeaturesDict({
            'bias': Tensor(shape=(256,), dtype=float32),
            'weight': Tensor(shape=(256, 256), dtype=float32),
        }),
        'last_fc': FeaturesDict({
            'bias': Tensor(shape=(6,), dtype=float32),
            'weight': Tensor(shape=(6, 256), dtype=float32),
        }),
        'last_fc_log_std': FeaturesDict({
            'bias': Tensor(shape=(6,), dtype=float32),
            'weight': Tensor(shape=(6, 256), dtype=float32),
        }),
        'nonlinearity': string,
        'output_distribution': string,
    }),
    'steps': Dataset({
        'action': Tensor(shape=(6,), dtype=float32),
        'discount': float32,
        'infos': FeaturesDict({
            'action_log_probs': float64,
            'qpos': Tensor(shape=(9,), dtype=float64),
            'qvel': Tensor(shape=(9,), dtype=float64),
        }),
        'is_first': bool,
        'is_last': bool,
        'is_terminal': bool,
        'observation': Tensor(shape=(17,), dtype=float32),
        'reward': float32,
    }),
})
  • Documentação de recursos :
Recurso Aula Forma Tipo D Descrição
RecursosDict
algoritmo Tensor corda
iteração Tensor int32
política RecursosDict
política/fc0 RecursosDict
política/fc0/bias Tensor (256,) float32
política/fc0/peso Tensor (256, 17) float32
política/fc1 RecursosDict
política/fc1/preconceito Tensor (256,) float32
política/fc1/peso Tensor (256, 256) float32
política/last_fc RecursosDict
política/last_fc/bias Tensor (6,) float32
política/last_fc/peso Tensor (6, 256) float32
política/last_fc_log_std RecursosDict
política/last_fc_log_std/bias Tensor (6,) float32
política/last_fc_log_std/peso Tensor (6, 256) float32
política/não linearidade Tensor corda
política/output_distribution Tensor corda
passos Conjunto de dados
etapas/ação Tensor (6,) float32
passos/desconto Tensor float32
etapas/informações RecursosDict
etapas/informações/action_log_probs Tensor float64
etapas/informações/qpos Tensor (9,) float64
passos/informações/qvel Tensor (9,) float64
passos/é_primeiro Tensor bool
passos/é_último Tensor bool
etapas/is_terminal Tensor bool
etapas/observação Tensor (17,) float32
passos/recompensa Tensor float32

d4rl_mujoco_walker2d/v2-full-replay

  • Tamanho do download : 271.91 MiB

  • Tamanho do conjunto de dados : 171.66 MiB

  • Armazenado em cache automaticamente ( documentação ): somente quando shuffle_files=False (train)

  • Divisões :

Dividir Exemplos
'train' 1.888
  • Estrutura de recursos :
FeaturesDict({
    'algorithm': string,
    'iteration': int32,
    'steps': Dataset({
        'action': Tensor(shape=(6,), dtype=float32),
        'discount': float32,
        'infos': FeaturesDict({
            'action_log_probs': float64,
            'qpos': Tensor(shape=(9,), dtype=float64),
            'qvel': Tensor(shape=(9,), dtype=float64),
        }),
        'is_first': bool,
        'is_last': bool,
        'is_terminal': bool,
        'observation': Tensor(shape=(17,), dtype=float32),
        'reward': float32,
    }),
})
  • Documentação de recursos :
Recurso Aula Forma Tipo D Descrição
RecursosDict
algoritmo Tensor corda
iteração Tensor int32
passos Conjunto de dados
etapas/ação Tensor (6,) float32
passos/desconto Tensor float32
etapas/informações RecursosDict
etapas/informações/action_log_probs Tensor float64
etapas/informações/qpos Tensor (9,) float64
passos/informações/qvel Tensor (9,) float64
passos/é_primeiro Tensor bool
passos/é_último Tensor bool
etapas/is_terminal Tensor bool
etapas/observação Tensor (17,) float32
passos/recompensa Tensor float32

d4rl_mujoco_walker2d/v2-medium

  • Tamanho do download : 221.50 MiB

  • Tamanho do conjunto de dados : 505.58 MiB

  • Armazenado em cache automaticamente ( documentação ): Não

  • Divisões :

Dividir Exemplos
'train' 1.191
  • Estrutura de recursos :
FeaturesDict({
    'algorithm': string,
    'iteration': int32,
    'policy': FeaturesDict({
        'fc0': FeaturesDict({
            'bias': Tensor(shape=(256,), dtype=float32),
            'weight': Tensor(shape=(256, 17), dtype=float32),
        }),
        'fc1': FeaturesDict({
            'bias': Tensor(shape=(256,), dtype=float32),
            'weight': Tensor(shape=(256, 256), dtype=float32),
        }),
        'last_fc': FeaturesDict({
            'bias': Tensor(shape=(6,), dtype=float32),
            'weight': Tensor(shape=(6, 256), dtype=float32),
        }),
        'last_fc_log_std': FeaturesDict({
            'bias': Tensor(shape=(6,), dtype=float32),
            'weight': Tensor(shape=(6, 256), dtype=float32),
        }),
        'nonlinearity': string,
        'output_distribution': string,
    }),
    'steps': Dataset({
        'action': Tensor(shape=(6,), dtype=float32),
        'discount': float32,
        'infos': FeaturesDict({
            'action_log_probs': float64,
            'qpos': Tensor(shape=(9,), dtype=float64),
            'qvel': Tensor(shape=(9,), dtype=float64),
        }),
        'is_first': bool,
        'is_last': bool,
        'is_terminal': bool,
        'observation': Tensor(shape=(17,), dtype=float32),
        'reward': float32,
    }),
})
  • Documentação de recursos :
Recurso Aula Forma Tipo D Descrição
RecursosDict
algoritmo Tensor corda
iteração Tensor int32
política RecursosDict
política/fc0 RecursosDict
política/fc0/bias Tensor (256,) float32
política/fc0/peso Tensor (256, 17) float32
política/fc1 RecursosDict
política/fc1/preconceito Tensor (256,) float32
política/fc1/peso Tensor (256, 256) float32
política/last_fc RecursosDict
política/last_fc/bias Tensor (6,) float32
política/last_fc/peso Tensor (6, 256) float32
política/last_fc_log_std RecursosDict
política/last_fc_log_std/bias Tensor (6,) float32
política/last_fc_log_std/peso Tensor (6, 256) float32
política/não linearidade Tensor corda
política/output_distribution Tensor corda
passos Conjunto de dados
etapas/ação Tensor (6,) float32
passos/desconto Tensor float32
etapas/informações RecursosDict
etapas/informações/action_log_probs Tensor float64
etapas/informações/qpos Tensor (9,) float64
passos/informações/qvel Tensor (9,) float64
passos/é_primeiro Tensor bool
passos/é_último Tensor bool
etapas/is_terminal Tensor bool
etapas/observação Tensor (17,) float32
passos/recompensa Tensor float32

d4rl_mujoco_walker2d/v2-medium-expert

  • Tamanho do download : 440.79 MiB

  • Tamanho do conjunto de dados : 342.45 MiB

  • Armazenado em cache automaticamente ( documentação ): Não

  • Divisões :

Dividir Exemplos
'train' 2.191
  • Estrutura de recursos :
FeaturesDict({
    'steps': Dataset({
        'action': Tensor(shape=(6,), dtype=float32),
        'discount': float32,
        'infos': FeaturesDict({
            'action_log_probs': float64,
            'qpos': Tensor(shape=(9,), dtype=float64),
            'qvel': Tensor(shape=(9,), dtype=float64),
        }),
        'is_first': bool,
        'is_last': bool,
        'is_terminal': bool,
        'observation': Tensor(shape=(17,), dtype=float32),
        'reward': float32,
    }),
})
  • Documentação de recursos :
Recurso Aula Forma Tipo D Descrição
RecursosDict
passos Conjunto de dados
etapas/ação Tensor (6,) float32
passos/desconto Tensor float32
etapas/informações RecursosDict
etapas/informações/action_log_probs Tensor float64
etapas/informações/qpos Tensor (9,) float64
passos/informações/qvel Tensor (9,) float64
passos/é_primeiro Tensor bool
passos/é_último Tensor bool
etapas/is_terminal Tensor bool
etapas/observação Tensor (17,) float32
passos/recompensa Tensor float32

d4rl_mujoco_walker2d/v2-medium-replay

  • Tamanho do download : 82.32 MiB

  • Tamanho do conjunto de dados : 52.10 MiB

  • Armazenado em cache automaticamente ( documentação ): Sim

  • Divisões :

Dividir Exemplos
'train' 1.093
  • Estrutura de recursos :
FeaturesDict({
    'algorithm': string,
    'iteration': int32,
    'steps': Dataset({
        'action': Tensor(shape=(6,), dtype=float32),
        'discount': float32,
        'infos': FeaturesDict({
            'action_log_probs': float64,
            'qpos': Tensor(shape=(9,), dtype=float64),
            'qvel': Tensor(shape=(9,), dtype=float64),
        }),
        'is_first': bool,
        'is_last': bool,
        'is_terminal': bool,
        'observation': Tensor(shape=(17,), dtype=float32),
        'reward': float32,
    }),
})
  • Documentação de recursos :
Recurso Aula Forma Tipo D Descrição
RecursosDict
algoritmo Tensor corda
iteração Tensor int32
passos Conjunto de dados
etapas/ação Tensor (6,) float32
passos/desconto Tensor float32
etapas/informações RecursosDict
etapas/informações/action_log_probs Tensor float64
etapas/informações/qpos Tensor (9,) float64
passos/informações/qvel Tensor (9,) float64
passos/é_primeiro Tensor bool
passos/é_último Tensor bool
etapas/is_terminal Tensor bool
etapas/observação Tensor (17,) float32
passos/recompensa Tensor float32

d4rl_mujoco_walker2d/v2-random

  • Tamanho do download : 206.10 MiB

  • Tamanho do conjunto de dados : 192.11 MiB

  • Armazenado em cache automaticamente ( documentação ): somente quando shuffle_files=False (train)

  • Divisões :

Dividir Exemplos
'train' 48.908
  • Estrutura de recursos :
FeaturesDict({
    'steps': Dataset({
        'action': Tensor(shape=(6,), dtype=float32),
        'discount': float32,
        'infos': FeaturesDict({
            'action_log_probs': float64,
            'qpos': Tensor(shape=(9,), dtype=float64),
            'qvel': Tensor(shape=(9,), dtype=float64),
        }),
        'is_first': bool,
        'is_last': bool,
        'is_terminal': bool,
        'observation': Tensor(shape=(17,), dtype=float32),
        'reward': float32,
    }),
})
  • Documentação de recursos :
Recurso Aula Forma Tipo D Descrição
RecursosDict
passos Conjunto de dados
etapas/ação Tensor (6,) float32
passos/desconto Tensor float32
etapas/informações RecursosDict
etapas/informações/action_log_probs Tensor float64
etapas/informações/qpos Tensor (9,) float64
passos/informações/qvel Tensor (9,) float64
passos/é_primeiro Tensor bool
passos/é_último Tensor bool
etapas/is_terminal Tensor bool
etapas/observação Tensor (17,) float32
passos/recompensa Tensor float32