- Descrição :
Os conjuntos de dados gerados pela máquina Robomimic foram coletados usando um agente Soft Actor Critic treinado com uma recompensa densa. Cada conjunto de dados consiste no buffer de reprodução do agente.
Cada tarefa tem duas versões: uma com observações de baixa dimensão ( low_dim
) e outra com imagens ( image
).
Os conjuntos de dados seguem o formato RLDS para representar etapas e episódios.
Página inicial : https://arise-initiative.github.io/robomimic-web/
Código-fonte :
tfds.datasets.robomimic_mg.Builder
Versões :
-
1.0.0
(padrão): versão inicial.
-
Chaves supervisionadas (Consulte
as_supervised
doc ):None
Figura ( tfds.show_examples ): Não compatível.
Exemplos ( tfds.as_dataframe ): Ausente.
Citação :
@inproceedings{robomimic2021,
title={What Matters in Learning from Offline Human Demonstrations for Robot Manipulation},
author={Ajay Mandlekar and Danfei Xu and Josiah Wong and Soroush Nasiriany
and Chen Wang and Rohun Kulkarni and Li Fei-Fei and Silvio Savarese
and Yuke Zhu and Roberto Mart\'{i}n-Mart\'{i}n},
booktitle={Conference on Robot Learning},
year={2021}
}
robomimic_mg/lift_mg_image (configuração padrão)
Tamanho do download :
18.04 GiB
Tamanho do conjunto de dados :
2.73 GiB
Armazenado em cache automaticamente ( documentação ): Não
Divisões :
Dividir | Exemplos |
---|---|
'train' | 1.500 |
- Estrutura de recursos :
FeaturesDict({
'episode_id': string,
'horizon': int32,
'steps': Dataset({
'action': Tensor(shape=(7,), dtype=float64),
'discount': int32,
'is_first': bool,
'is_last': bool,
'is_terminal': bool,
'observation': FeaturesDict({
'agentview_image': Image(shape=(84, 84, 3), dtype=uint8),
'object': Tensor(shape=(10,), dtype=float64),
'robot0_eef_pos': Tensor(shape=(3,), dtype=float64),
'robot0_eef_quat': Tensor(shape=(4,), dtype=float64),
'robot0_eef_vel_ang': Tensor(shape=(3,), dtype=float64),
'robot0_eef_vel_lin': Tensor(shape=(3,), dtype=float64),
'robot0_eye_in_hand_image': Image(shape=(84, 84, 3), dtype=uint8),
'robot0_gripper_qpos': Tensor(shape=(2,), dtype=float64),
'robot0_gripper_qvel': Tensor(shape=(2,), dtype=float64),
'robot0_joint_pos': Tensor(shape=(7,), dtype=float64),
'robot0_joint_pos_cos': Tensor(shape=(7,), dtype=float64),
'robot0_joint_pos_sin': Tensor(shape=(7,), dtype=float64),
'robot0_joint_vel': Tensor(shape=(7,), dtype=float64),
}),
'reward': float64,
'states': Tensor(shape=(32,), dtype=float64),
}),
})
- Documentação do recurso :
Recurso | Aula | Forma | Tipo D | Descrição |
---|---|---|---|---|
RecursosDict | ||||
episódio_id | tensor | corda | ||
horizonte | tensor | int32 | ||
passos | conjunto de dados | |||
passos/ação | tensor | (7,) | float64 | |
passos/desconto | tensor | int32 | ||
passos/é_primeiro | tensor | bool | ||
passos/é_último | tensor | bool | ||
passos/is_terminal | tensor | bool | ||
passos/observação | RecursosDict | |||
passos/observação/agentview_image | Imagem | (84, 84, 3) | uint8 | |
passos/observação/objeto | tensor | (10,) | float64 | |
passos/observação/robot0_eef_pos | tensor | (3,) | float64 | Posição do efetuador final |
passos/observação/robot0_eef_quat | tensor | (4,) | float64 | Orientação do efetuador final |
passos/observação/robot0_eef_vel_ang | tensor | (3,) | float64 | Velocidade angular do efetor final |
passos/observação/robot0_eef_vel_lin | tensor | (3,) | float64 | Velocidade cartesiana do efetor final |
passos/observação/robot0_eye_in_hand_image | Imagem | (84, 84, 3) | uint8 | |
passos/observação/robot0_gripper_qpos | tensor | (2,) | float64 | Posição da garra |
passos/observação/robot0_gripper_qvel | tensor | (2,) | float64 | Velocidade da pinça |
passos/observação/robot0_joint_pos | tensor | (7,) | float64 | 7DOF posições conjuntas |
passos/observação/robot0_joint_pos_cos | tensor | (7,) | float64 | |
passos/observação/robot0_joint_pos_sin | tensor | (7,) | float64 | |
passos/observação/robot0_joint_vel | tensor | (7,) | float64 | 7DOF velocidades conjuntas |
passos/recompensa | tensor | float64 | ||
passos/estados | tensor | (32,) | float64 |
robomimic_mg/lift_mg_low_dim
Tamanho do download :
302.25 MiB
Tamanho do conjunto de dados :
195.10 MiB
Armazenado em cache automaticamente ( documentação ): Somente quando
shuffle_files=False
(train)Divisões :
Dividir | Exemplos |
---|---|
'train' | 1.500 |
- Estrutura de recursos :
FeaturesDict({
'episode_id': string,
'horizon': int32,
'steps': Dataset({
'action': Tensor(shape=(7,), dtype=float64),
'discount': int32,
'is_first': bool,
'is_last': bool,
'is_terminal': bool,
'observation': FeaturesDict({
'object': Tensor(shape=(10,), dtype=float64),
'robot0_eef_pos': Tensor(shape=(3,), dtype=float64),
'robot0_eef_quat': Tensor(shape=(4,), dtype=float64),
'robot0_eef_vel_ang': Tensor(shape=(3,), dtype=float64),
'robot0_eef_vel_lin': Tensor(shape=(3,), dtype=float64),
'robot0_gripper_qpos': Tensor(shape=(2,), dtype=float64),
'robot0_gripper_qvel': Tensor(shape=(2,), dtype=float64),
'robot0_joint_pos': Tensor(shape=(7,), dtype=float64),
'robot0_joint_pos_cos': Tensor(shape=(7,), dtype=float64),
'robot0_joint_pos_sin': Tensor(shape=(7,), dtype=float64),
'robot0_joint_vel': Tensor(shape=(7,), dtype=float64),
}),
'reward': float64,
'states': Tensor(shape=(32,), dtype=float64),
}),
})
- Documentação do recurso :
Recurso | Aula | Forma | Tipo D | Descrição |
---|---|---|---|---|
RecursosDict | ||||
episódio_id | tensor | corda | ||
horizonte | tensor | int32 | ||
passos | conjunto de dados | |||
passos/ação | tensor | (7,) | float64 | |
passos/desconto | tensor | int32 | ||
passos/é_primeiro | tensor | bool | ||
passos/é_último | tensor | bool | ||
passos/is_terminal | tensor | bool | ||
passos/observação | RecursosDict | |||
passos/observação/objeto | tensor | (10,) | float64 | |
passos/observação/robot0_eef_pos | tensor | (3,) | float64 | Posição do efetuador final |
passos/observação/robot0_eef_quat | tensor | (4,) | float64 | Orientação do efetuador final |
passos/observação/robot0_eef_vel_ang | tensor | (3,) | float64 | Velocidade angular do efetor final |
passos/observação/robot0_eef_vel_lin | tensor | (3,) | float64 | Velocidade cartesiana do efetor final |
passos/observação/robot0_gripper_qpos | tensor | (2,) | float64 | Posição da garra |
passos/observação/robot0_gripper_qvel | tensor | (2,) | float64 | Velocidade da pinça |
passos/observação/robot0_joint_pos | tensor | (7,) | float64 | 7DOF posições conjuntas |
passos/observação/robot0_joint_pos_cos | tensor | (7,) | float64 | |
passos/observação/robot0_joint_pos_sin | tensor | (7,) | float64 | |
passos/observação/robot0_joint_vel | tensor | (7,) | float64 | 7DOF velocidades conjuntas |
passos/recompensa | tensor | float64 | ||
passos/estados | tensor | (32,) | float64 |
robomimic_mg/can_mg_image
Tamanho do download :
47.14 GiB
Tamanho do conjunto de dados :
11.15 GiB
Armazenado em cache automaticamente ( documentação ): Não
Divisões :
Dividir | Exemplos |
---|---|
'train' | 3.900 |
- Estrutura de recursos :
FeaturesDict({
'episode_id': string,
'horizon': int32,
'steps': Dataset({
'action': Tensor(shape=(7,), dtype=float64),
'discount': int32,
'is_first': bool,
'is_last': bool,
'is_terminal': bool,
'observation': FeaturesDict({
'agentview_image': Image(shape=(84, 84, 3), dtype=uint8),
'object': Tensor(shape=(14,), dtype=float64),
'robot0_eef_pos': Tensor(shape=(3,), dtype=float64),
'robot0_eef_quat': Tensor(shape=(4,), dtype=float64),
'robot0_eef_vel_ang': Tensor(shape=(3,), dtype=float64),
'robot0_eef_vel_lin': Tensor(shape=(3,), dtype=float64),
'robot0_eye_in_hand_image': Image(shape=(84, 84, 3), dtype=uint8),
'robot0_gripper_qpos': Tensor(shape=(2,), dtype=float64),
'robot0_gripper_qvel': Tensor(shape=(2,), dtype=float64),
'robot0_joint_pos': Tensor(shape=(7,), dtype=float64),
'robot0_joint_pos_cos': Tensor(shape=(7,), dtype=float64),
'robot0_joint_pos_sin': Tensor(shape=(7,), dtype=float64),
'robot0_joint_vel': Tensor(shape=(7,), dtype=float64),
}),
'reward': float64,
'states': Tensor(shape=(71,), dtype=float64),
}),
})
- Documentação do recurso :
Recurso | Aula | Forma | Tipo D | Descrição |
---|---|---|---|---|
RecursosDict | ||||
episódio_id | tensor | corda | ||
horizonte | tensor | int32 | ||
passos | conjunto de dados | |||
passos/ação | tensor | (7,) | float64 | |
passos/desconto | tensor | int32 | ||
passos/é_primeiro | tensor | bool | ||
passos/é_último | tensor | bool | ||
passos/is_terminal | tensor | bool | ||
passos/observação | RecursosDict | |||
passos/observação/agentview_image | Imagem | (84, 84, 3) | uint8 | |
passos/observação/objeto | tensor | (14,) | float64 | |
passos/observação/robot0_eef_pos | tensor | (3,) | float64 | Posição do efetuador final |
passos/observação/robot0_eef_quat | tensor | (4,) | float64 | Orientação do efetuador final |
passos/observação/robot0_eef_vel_ang | tensor | (3,) | float64 | Velocidade angular do efetor final |
passos/observação/robot0_eef_vel_lin | tensor | (3,) | float64 | Velocidade cartesiana do efetor final |
passos/observação/robot0_eye_in_hand_image | Imagem | (84, 84, 3) | uint8 | |
passos/observação/robot0_gripper_qpos | tensor | (2,) | float64 | Posição da garra |
passos/observação/robot0_gripper_qvel | tensor | (2,) | float64 | Velocidade da garra |
passos/observação/robot0_joint_pos | tensor | (7,) | float64 | 7DOF posições conjuntas |
passos/observação/robot0_joint_pos_cos | tensor | (7,) | float64 | |
passos/observação/robot0_joint_pos_sin | tensor | (7,) | float64 | |
passos/observação/robot0_joint_vel | tensor | (7,) | float64 | 7DOF velocidades conjuntas |
passos/recompensa | tensor | float64 | ||
passos/estados | tensor | (71,) | float64 |
robomimic_mg/can_mg_low_dim
Tamanho do download :
1.01 GiB
Tamanho do conjunto de dados :
697.71 MiB
Armazenado em cache automaticamente ( documentação ): Não
Divisões :
Dividir | Exemplos |
---|---|
'train' | 3.900 |
- Estrutura de recursos :
FeaturesDict({
'episode_id': string,
'horizon': int32,
'steps': Dataset({
'action': Tensor(shape=(7,), dtype=float64),
'discount': int32,
'is_first': bool,
'is_last': bool,
'is_terminal': bool,
'observation': FeaturesDict({
'object': Tensor(shape=(14,), dtype=float64),
'robot0_eef_pos': Tensor(shape=(3,), dtype=float64),
'robot0_eef_quat': Tensor(shape=(4,), dtype=float64),
'robot0_eef_vel_ang': Tensor(shape=(3,), dtype=float64),
'robot0_eef_vel_lin': Tensor(shape=(3,), dtype=float64),
'robot0_gripper_qpos': Tensor(shape=(2,), dtype=float64),
'robot0_gripper_qvel': Tensor(shape=(2,), dtype=float64),
'robot0_joint_pos': Tensor(shape=(7,), dtype=float64),
'robot0_joint_pos_cos': Tensor(shape=(7,), dtype=float64),
'robot0_joint_pos_sin': Tensor(shape=(7,), dtype=float64),
'robot0_joint_vel': Tensor(shape=(7,), dtype=float64),
}),
'reward': float64,
'states': Tensor(shape=(71,), dtype=float64),
}),
})
- Documentação do recurso :
Recurso | Aula | Forma | Tipo D | Descrição |
---|---|---|---|---|
RecursosDict | ||||
episódio_id | tensor | corda | ||
horizonte | tensor | int32 | ||
passos | conjunto de dados | |||
passos/ação | tensor | (7,) | float64 | |
passos/desconto | tensor | int32 | ||
passos/é_primeiro | tensor | bool | ||
passos/é_último | tensor | bool | ||
passos/is_terminal | tensor | bool | ||
passos/observação | RecursosDict | |||
passos/observação/objeto | tensor | (14,) | float64 | |
passos/observação/robot0_eef_pos | tensor | (3,) | float64 | Posição do efetuador final |
passos/observação/robot0_eef_quat | tensor | (4,) | float64 | Orientação do efetuador final |
passos/observação/robot0_eef_vel_ang | tensor | (3,) | float64 | Velocidade angular do efetor final |
passos/observação/robot0_eef_vel_lin | tensor | (3,) | float64 | Velocidade cartesiana do efetor final |
passos/observação/robot0_gripper_qpos | tensor | (2,) | float64 | Posição da garra |
passos/observação/robot0_gripper_qvel | tensor | (2,) | float64 | Velocidade da pinça |
passos/observação/robot0_joint_pos | tensor | (7,) | float64 | 7DOF posições conjuntas |
passos/observação/robot0_joint_pos_cos | tensor | (7,) | float64 | |
passos/observação/robot0_joint_pos_sin | tensor | (7,) | float64 | |
passos/observação/robot0_joint_vel | tensor | (7,) | float64 | 7DOF velocidades conjuntas |
passos/recompensa | tensor | float64 | ||
passos/estados | tensor | (71,) | float64 |
- Descrição :
Os conjuntos de dados gerados pela máquina Robomimic foram coletados usando um agente Soft Actor Critic treinado com uma recompensa densa. Cada conjunto de dados consiste no buffer de reprodução do agente.
Cada tarefa tem duas versões: uma com observações de baixa dimensão ( low_dim
) e outra com imagens ( image
).
Os conjuntos de dados seguem o formato RLDS para representar etapas e episódios.
Página inicial : https://arise-initiative.github.io/robomimic-web/
Código-fonte :
tfds.datasets.robomimic_mg.Builder
Versões :
-
1.0.0
(padrão): versão inicial.
-
Chaves supervisionadas (Consulte
as_supervised
doc ):None
Figura ( tfds.show_examples ): Não compatível.
Exemplos ( tfds.as_dataframe ): Ausente.
Citação :
@inproceedings{robomimic2021,
title={What Matters in Learning from Offline Human Demonstrations for Robot Manipulation},
author={Ajay Mandlekar and Danfei Xu and Josiah Wong and Soroush Nasiriany
and Chen Wang and Rohun Kulkarni and Li Fei-Fei and Silvio Savarese
and Yuke Zhu and Roberto Mart\'{i}n-Mart\'{i}n},
booktitle={Conference on Robot Learning},
year={2021}
}
robomimic_mg/lift_mg_image (configuração padrão)
Tamanho do download :
18.04 GiB
Tamanho do conjunto de dados :
2.73 GiB
Armazenado em cache automaticamente ( documentação ): Não
Divisões :
Dividir | Exemplos |
---|---|
'train' | 1.500 |
- Estrutura de recursos :
FeaturesDict({
'episode_id': string,
'horizon': int32,
'steps': Dataset({
'action': Tensor(shape=(7,), dtype=float64),
'discount': int32,
'is_first': bool,
'is_last': bool,
'is_terminal': bool,
'observation': FeaturesDict({
'agentview_image': Image(shape=(84, 84, 3), dtype=uint8),
'object': Tensor(shape=(10,), dtype=float64),
'robot0_eef_pos': Tensor(shape=(3,), dtype=float64),
'robot0_eef_quat': Tensor(shape=(4,), dtype=float64),
'robot0_eef_vel_ang': Tensor(shape=(3,), dtype=float64),
'robot0_eef_vel_lin': Tensor(shape=(3,), dtype=float64),
'robot0_eye_in_hand_image': Image(shape=(84, 84, 3), dtype=uint8),
'robot0_gripper_qpos': Tensor(shape=(2,), dtype=float64),
'robot0_gripper_qvel': Tensor(shape=(2,), dtype=float64),
'robot0_joint_pos': Tensor(shape=(7,), dtype=float64),
'robot0_joint_pos_cos': Tensor(shape=(7,), dtype=float64),
'robot0_joint_pos_sin': Tensor(shape=(7,), dtype=float64),
'robot0_joint_vel': Tensor(shape=(7,), dtype=float64),
}),
'reward': float64,
'states': Tensor(shape=(32,), dtype=float64),
}),
})
- Documentação do recurso :
Recurso | Aula | Forma | Tipo D | Descrição |
---|---|---|---|---|
RecursosDict | ||||
episódio_id | tensor | corda | ||
horizonte | tensor | int32 | ||
passos | conjunto de dados | |||
passos/ação | tensor | (7,) | float64 | |
passos/desconto | tensor | int32 | ||
passos/é_primeiro | tensor | bool | ||
passos/é_último | tensor | bool | ||
passos/is_terminal | tensor | bool | ||
passos/observação | RecursosDict | |||
passos/observação/agentview_image | Imagem | (84, 84, 3) | uint8 | |
passos/observação/objeto | tensor | (10,) | float64 | |
passos/observação/robot0_eef_pos | tensor | (3,) | float64 | Posição do efetuador final |
passos/observação/robot0_eef_quat | tensor | (4,) | float64 | Orientação do efetuador final |
passos/observação/robot0_eef_vel_ang | tensor | (3,) | float64 | Velocidade angular do efetor final |
passos/observação/robot0_eef_vel_lin | tensor | (3,) | float64 | Velocidade cartesiana do efetor final |
passos/observação/robot0_eye_in_hand_image | Imagem | (84, 84, 3) | uint8 | |
passos/observação/robot0_gripper_qpos | tensor | (2,) | float64 | Posição da garra |
passos/observação/robot0_gripper_qvel | tensor | (2,) | float64 | Velocidade da pinça |
passos/observação/robot0_joint_pos | tensor | (7,) | float64 | 7DOF posições conjuntas |
passos/observação/robot0_joint_pos_cos | tensor | (7,) | float64 | |
passos/observação/robot0_joint_pos_sin | tensor | (7,) | float64 | |
passos/observação/robot0_joint_vel | tensor | (7,) | float64 | 7DOF velocidades conjuntas |
passos/recompensa | tensor | float64 | ||
passos/estados | tensor | (32,) | float64 |
robomimic_mg/lift_mg_low_dim
Tamanho do download :
302.25 MiB
Tamanho do conjunto de dados :
195.10 MiB
Armazenado em cache automaticamente ( documentação ): Somente quando
shuffle_files=False
(train)Divisões :
Dividir | Exemplos |
---|---|
'train' | 1.500 |
- Estrutura de recursos :
FeaturesDict({
'episode_id': string,
'horizon': int32,
'steps': Dataset({
'action': Tensor(shape=(7,), dtype=float64),
'discount': int32,
'is_first': bool,
'is_last': bool,
'is_terminal': bool,
'observation': FeaturesDict({
'object': Tensor(shape=(10,), dtype=float64),
'robot0_eef_pos': Tensor(shape=(3,), dtype=float64),
'robot0_eef_quat': Tensor(shape=(4,), dtype=float64),
'robot0_eef_vel_ang': Tensor(shape=(3,), dtype=float64),
'robot0_eef_vel_lin': Tensor(shape=(3,), dtype=float64),
'robot0_gripper_qpos': Tensor(shape=(2,), dtype=float64),
'robot0_gripper_qvel': Tensor(shape=(2,), dtype=float64),
'robot0_joint_pos': Tensor(shape=(7,), dtype=float64),
'robot0_joint_pos_cos': Tensor(shape=(7,), dtype=float64),
'robot0_joint_pos_sin': Tensor(shape=(7,), dtype=float64),
'robot0_joint_vel': Tensor(shape=(7,), dtype=float64),
}),
'reward': float64,
'states': Tensor(shape=(32,), dtype=float64),
}),
})
- Documentação do recurso :
Recurso | Aula | Forma | Tipo D | Descrição |
---|---|---|---|---|
RecursosDict | ||||
episódio_id | tensor | corda | ||
horizonte | tensor | int32 | ||
passos | conjunto de dados | |||
passos/ação | tensor | (7,) | float64 | |
passos/desconto | tensor | int32 | ||
passos/é_primeiro | tensor | bool | ||
passos/é_último | tensor | bool | ||
passos/is_terminal | tensor | bool | ||
passos/observação | RecursosDict | |||
passos/observação/objeto | tensor | (10,) | float64 | |
passos/observação/robot0_eef_pos | tensor | (3,) | float64 | Posição do efetuador final |
passos/observação/robot0_eef_quat | tensor | (4,) | float64 | Orientação do efetuador final |
passos/observação/robot0_eef_vel_ang | tensor | (3,) | float64 | Velocidade angular do efetor final |
passos/observação/robot0_eef_vel_lin | tensor | (3,) | float64 | Velocidade cartesiana do efetor final |
passos/observação/robot0_gripper_qpos | tensor | (2,) | float64 | Posição da garra |
passos/observação/robot0_gripper_qvel | tensor | (2,) | float64 | Velocidade da garra |
passos/observação/robot0_joint_pos | tensor | (7,) | float64 | 7DOF posições conjuntas |
passos/observação/robot0_joint_pos_cos | tensor | (7,) | float64 | |
passos/observação/robot0_joint_pos_sin | tensor | (7,) | float64 | |
passos/observação/robot0_joint_vel | tensor | (7,) | float64 | 7DOF velocidades conjuntas |
passos/recompensa | tensor | float64 | ||
passos/estados | tensor | (32,) | float64 |
robomimic_mg/can_mg_image
Tamanho do download :
47.14 GiB
Tamanho do conjunto de dados :
11.15 GiB
Armazenado em cache automaticamente ( documentação ): Não
Divisões :
Dividir | Exemplos |
---|---|
'train' | 3.900 |
- Estrutura de recursos :
FeaturesDict({
'episode_id': string,
'horizon': int32,
'steps': Dataset({
'action': Tensor(shape=(7,), dtype=float64),
'discount': int32,
'is_first': bool,
'is_last': bool,
'is_terminal': bool,
'observation': FeaturesDict({
'agentview_image': Image(shape=(84, 84, 3), dtype=uint8),
'object': Tensor(shape=(14,), dtype=float64),
'robot0_eef_pos': Tensor(shape=(3,), dtype=float64),
'robot0_eef_quat': Tensor(shape=(4,), dtype=float64),
'robot0_eef_vel_ang': Tensor(shape=(3,), dtype=float64),
'robot0_eef_vel_lin': Tensor(shape=(3,), dtype=float64),
'robot0_eye_in_hand_image': Image(shape=(84, 84, 3), dtype=uint8),
'robot0_gripper_qpos': Tensor(shape=(2,), dtype=float64),
'robot0_gripper_qvel': Tensor(shape=(2,), dtype=float64),
'robot0_joint_pos': Tensor(shape=(7,), dtype=float64),
'robot0_joint_pos_cos': Tensor(shape=(7,), dtype=float64),
'robot0_joint_pos_sin': Tensor(shape=(7,), dtype=float64),
'robot0_joint_vel': Tensor(shape=(7,), dtype=float64),
}),
'reward': float64,
'states': Tensor(shape=(71,), dtype=float64),
}),
})
- Documentação do recurso :
Recurso | Aula | Forma | Tipo D | Descrição |
---|---|---|---|---|
RecursosDict | ||||
episódio_id | tensor | corda | ||
horizonte | tensor | int32 | ||
passos | conjunto de dados | |||
passos/ação | tensor | (7,) | float64 | |
passos/desconto | tensor | int32 | ||
passos/é_primeiro | tensor | bool | ||
passos/é_último | tensor | bool | ||
passos/is_terminal | tensor | bool | ||
passos/observação | RecursosDict | |||
passos/observação/agentview_image | Imagem | (84, 84, 3) | uint8 | |
passos/observação/objeto | tensor | (14,) | float64 | |
passos/observação/robot0_eef_pos | tensor | (3,) | float64 | Posição do efetuador final |
passos/observação/robot0_eef_quat | tensor | (4,) | float64 | Orientação do efetuador final |
passos/observação/robot0_eef_vel_ang | tensor | (3,) | float64 | Velocidade angular do efetor final |
passos/observação/robot0_eef_vel_lin | tensor | (3,) | float64 | Velocidade cartesiana do efetor final |
passos/observação/robot0_eye_in_hand_image | Imagem | (84, 84, 3) | uint8 | |
passos/observação/robot0_gripper_qpos | tensor | (2,) | float64 | Posição da garra |
passos/observação/robot0_gripper_qvel | tensor | (2,) | float64 | Velocidade da garra |
passos/observação/robot0_joint_pos | tensor | (7,) | float64 | 7DOF posições conjuntas |
passos/observação/robot0_joint_pos_cos | tensor | (7,) | float64 | |
passos/observação/robot0_joint_pos_sin | tensor | (7,) | float64 | |
passos/observação/robot0_joint_vel | tensor | (7,) | float64 | 7DOF velocidades conjuntas |
passos/recompensa | tensor | float64 | ||
passos/estados | tensor | (71,) | float64 |
robomimic_mg/can_mg_low_dim
Tamanho do download :
1.01 GiB
Tamanho do conjunto de dados :
697.71 MiB
Armazenado em cache automaticamente ( documentação ): Não
Divisões :
Dividir | Exemplos |
---|---|
'train' | 3.900 |
- Estrutura de recursos :
FeaturesDict({
'episode_id': string,
'horizon': int32,
'steps': Dataset({
'action': Tensor(shape=(7,), dtype=float64),
'discount': int32,
'is_first': bool,
'is_last': bool,
'is_terminal': bool,
'observation': FeaturesDict({
'object': Tensor(shape=(14,), dtype=float64),
'robot0_eef_pos': Tensor(shape=(3,), dtype=float64),
'robot0_eef_quat': Tensor(shape=(4,), dtype=float64),
'robot0_eef_vel_ang': Tensor(shape=(3,), dtype=float64),
'robot0_eef_vel_lin': Tensor(shape=(3,), dtype=float64),
'robot0_gripper_qpos': Tensor(shape=(2,), dtype=float64),
'robot0_gripper_qvel': Tensor(shape=(2,), dtype=float64),
'robot0_joint_pos': Tensor(shape=(7,), dtype=float64),
'robot0_joint_pos_cos': Tensor(shape=(7,), dtype=float64),
'robot0_joint_pos_sin': Tensor(shape=(7,), dtype=float64),
'robot0_joint_vel': Tensor(shape=(7,), dtype=float64),
}),
'reward': float64,
'states': Tensor(shape=(71,), dtype=float64),
}),
})
- Documentação do recurso :
Recurso | Aula | Forma | Tipo D | Descrição |
---|---|---|---|---|
RecursosDict | ||||
episódio_id | tensor | corda | ||
horizonte | tensor | int32 | ||
passos | conjunto de dados | |||
passos/ação | tensor | (7,) | float64 | |
passos/desconto | tensor | int32 | ||
passos/é_primeiro | tensor | bool | ||
passos/é_último | tensor | bool | ||
passos/is_terminal | tensor | bool | ||
passos/observação | RecursosDict | |||
passos/observação/objeto | tensor | (14,) | float64 | |
passos/observação/robot0_eef_pos | tensor | (3,) | float64 | Posição do efetuador final |
passos/observação/robot0_eef_quat | tensor | (4,) | float64 | Orientação do efetuador final |
passos/observação/robot0_eef_vel_ang | tensor | (3,) | float64 | Velocidade angular do efetor final |
passos/observação/robot0_eef_vel_lin | tensor | (3,) | float64 | Velocidade cartesiana do efetor final |
passos/observação/robot0_gripper_qpos | tensor | (2,) | float64 | Posição da garra |
passos/observação/robot0_gripper_qvel | tensor | (2,) | float64 | Velocidade da pinça |
passos/observação/robot0_joint_pos | tensor | (7,) | float64 | 7DOF posições conjuntas |
passos/observação/robot0_joint_pos_cos | tensor | (7,) | float64 | |
passos/observação/robot0_joint_pos_sin | tensor | (7,) | float64 | |
passos/observação/robot0_joint_vel | tensor | (7,) | float64 | 7DOF velocidades conjuntas |
passos/recompensa | tensor | float64 | ||
passos/estados | tensor | (71,) | float64 |